Видеокарты на шине vlb
Эволюция шин для видеокарт: от ISA до PCIe
В далеком 1981 году создатели IBM PC и подумать не могли о том, что всего через двадцать пять лет компактные домашние компьютеры смогут выдавать практически фотореалистичную картинку с миллионами полигонов, а игровые миры раскинутся на тысячи виртуальных километров.
Интересно, что сказал бы Герман Холлерит (Herman Hollerith), узнав, что основанная им компания по изготовлению перфокарт и счетных машин в очередной раз оказалась у истоков наших ретро-исследований?
От простого к сложному
В 1981 году компания IBM представила первый в мире персональный компьютер — IBM PC. В нем использовалась допотопная видеокарта с возможностью вывода монохромного изображения, но не это главное. Все наше внимание приковано к шине Industry Standard Architecture (ISA), разработанной в недрах IBM. Основное назначение ISA — соединение периферийных компонентов с системой.
Шина ISA использовалась далеко не только (и даже не столько) для нужд видеокарт. Сторонние производители выпустили массу дополнительных устройств для расширения возможностей компьютера. Оно и понятно, ведь тогда в системную плату не устанавливали звуковой кодек, сетевой контроллер и т.д. Все это можно было реализовать лишь с помощью карт расширения. Сами по себе ISA-порты не сильно отличались от более привычных PCI-разъемов.
Предшественниками полноценных видеокарт были чипы с возможностью вывода спрайтов на экран. Графические возможности компьютеров в те времена не волновали людей: когда IBM представила первый в мире чип с поддержкой вывода нескольких цветов, люди и не поняли, зачем это нужно. Графические карты для интерфейса ISA в середине 1980-х выпускали компании Cirrus Logic, Avance Logic, ATI, S3.
EISA заткнула за пояс шину MCA от IBM и стала стандартом де-факто.
Изначально у шины ISA было много ограничений: недостаточная пропускная способность, малое число прерываний, система распределения питания не ахти. Заменить ISA должна была шина Micro Channel Architecture (MCA), представленная в 1987 году вместе с компьютером IBM PS/2. Новая разработка решила многие проблемы, свойственные ISA: частота шины поднялась до 10 МГц, появился вменяемый Plug-n-Play (до этого прописывать новое устройство в систему приходилось вручную), шина стала 32-битной. Теоретическая пропускная способность MCA достигала 66 Мб/с, на практике — максимум 40 Мб/с. Устройства наконец-то могли общаться друг с другом напрямую, минуя центральный процессор. С такими улучшениями MCA могла бы стать индустриальным стандартом, но IBM сама все испортила. Компания не стала развивать рынок периферии для новой шины, более того, тщательно тормозила этот процесс — сторонние производители должны были получать специализированный ID для каждого устройства, за право выпуска устройств под MCA нужно было платить лицензионные отчисления и роялти. И это при том, что IBM не получила патенты на шину.
История сохранила лишь несколько упоминаний о видеокартах под MCA. Очевидно, что производители испугались всех трудностей, связанных с лицензированием и получением ID. Да и стоило ли мучиться? Компьютеры с шиной MCA оказались значительно дороже аналогов с использованием ISA. Все большей популярностью пользовались системы от Dell, Research Machines и Olivetti. Самые известные дискретные видеокарты для MCA — это монструозные IBM XGA, XGA-2, несколько моделей от Infotronic, Actix и ATI. Кстати, примерно в то же время появился разъем VGA (D-sub) для подключения мониторов.
Видеокарта ATI Mach32 для шины VLB едва помещалась в корпуса того времени. Да-да, и тогда выпускали громадные видеокарты.
Производителям компьютеров основательно поднадоела политика IBM. В итоге они объединились и начали работать над альтернативным стандартом. Альянс AST Research, Compaq, Epson, Hewlett-Packard, NEC, Olivetti, Tandy, WYSE и Zenith Data Systems шутливо назвали «Бандой девяти». Результаты их труда обозначились уже в 1988 году, когда партнеры представили 32-битную шину Extended Industry Standard Architecture (EISA). Она обладала всеми преимуществами MCA, но при этом представляла собой лишь надстройку над классической ISA, что позволило сохранить совместимость с 8- и 16-битными компонентами. Лицензия на шину стоила копейки.
Внешне порты EISA были похожи на 16-битные разъемы ISA — они точно так же были разделены на части для сохранения совместимости. С точки зрения производителей, шина EISA не сильно отличалась от оригинальной ISA, так что и видеокарт с ее поддержкой было выпущено предостаточно.
Надстройка продлила жизнь ISA, но в начале 1990-х была представлена шина VESA Local Bus (VL-bus, VLB). За ее разработку ответственна всем известная ассоциация Video Electronics Standards Association (VESA), основанная NEC в середине 1980-х годов. Почему бы не успокоиться на время и не продолжить использование EISA? Все просто — производителям опять не хватало скорости. Решением стала совершенно неудобная по современным меркам «добавка» в виде PCI-образного порта, который располагался в один ряд с 16-битным разъемом ISA, таким образом продлевая его. Устройство с поддержкой VLB устанавливалось сразу в два разъема — порт VLB обслуживал обращения к памяти, а ISA обрабатывал прерывания. Топорное решение, ничего не скажешь.
Несмотря на все недостатки, VLB стала стандартом де-факто в компьютерах с процессорами Intel 80486. Многочисленные производители видеокарт представили длинные модели с двумя разъемами.
В 1991 году ATI выпустила видеокарту Mach 8, которая могла обрабатывать картинку без помощи процессора. Уже в 1992 году последовала Mach 32 с возможностью ускорения обработки графического интерфейса Windows. Начались первые войны за рынок графики. В стычках участвовали S3, Cirrus Logic, ATI, PowerVR, Rendition и более мелкие игроки. На горизонте замаячили трехмерные пространства и аппаратное ускорение графики.
Назад в будущее
Проследив за компьютерным рынком, Intel решила взять все в свои руки и начала работу над шиной Peripheral Component Interconnect (PCI). Intel подошла к вопросу со всей серьезностью и организовала специальную группу для продвижения стандарта — PCI Special Interest Group (PCI-SIG). В нее вошли представители наиболее крупных IT-компаний.
Карта расширения с четырьмя дополнительными разъемами ISA. Такие устройства использовали, когда доступных портов уже не хватало.
Финальные спецификации PCI 1.0 были готовы к 1993 году. В серверах новый интерфейс заменил и EISA, и MCA. Захват рынка настольных компьютеров произошел не сразу — на тот момент люди были вполне довольны возможностями VLB. С появлением мощных процессоров Pentium недостатки шины стали очевидны — пользователям не давали жить постоянные помехи, наводки от оборудования и испорченные данные на жестких дисках.
В один прекрасный момент Intel представила процессор Pentium Pro в паре с новым чипсетом, в нем место VLB не нашлось. Да, вот так просто компания взяла, да и убрала разъем. Силовые наклонности Intel проявляются и по сей день, ведь именно она форсировала переход на Serial ATA, ратовала за отказ от PS/2 в пользу USB. Что интересно, интерфейс EISA тогда сохранили — соответствующие разъемы оставались на платах еще довольно долго.
К выходу Pentium II в 1995 году PCI-SIG представила спецификации PCI 2.0 (33 МГц). В новой версии была решена проблема прерываний и определения установленных устройств — под эти цели отвели дополнительный канал связи. Периферия могла свободно обращаться к памяти, выделять для себя необходимые участки, а технологию Plug-n-Play довели до ума.
Участники PCI-SIG не почивали на лаврах и продолжали работу над стандартом — в последующие годы появились ревизии 2.1, 2.2 и даже 3.0. Самая ходовая версия PCI обладала пропускной способностью 133 Мб/с. Тем временем на рынке видеокарт только разгоралась борьба за место под солнцем. Производители работали над реализацией аппаратного ускорения 3D-графики. Ярчайшие представители той эпохи — разновидности S3 ViRGE и первый комбинированный 2D/3D графический ускоритель ATI Rage. Не выдержав конкуренции, рынок видеокарт начали покидать различные компании. Многие из них — например, Cirrus Logic — перепрофилировались и успешно существуют до сих пор.
Разъемы PCI Express даже внешне не похожи на PCI, от одноименного предшественника остались лишь воспоминания.
Все описанные тогдашние модели использовали интерфейс PCI — до поры до времени он обеспечивал достаточную пропускную способность. История шины как идеального интерфейса для видеокарт стала подходить к концу с появлением на рынке компаний 3Dfx и NVIDIA. К 1997 году последняя представила сравнительно мощную Riva 128, ATI продолжила развивать Rage, а 3Dfx выпустила легендарные 3D-акселераторы Voodoo и Voodoo 2. Несмотря на то, что шина PCI позволяла вытворять фокусы, вроде установки двух Voodoo 2 и объединения их в режим SLI, пропускной способности стало не хватать. И снова на арену вышла Intel.
Главное уязвимое место шины PCI заключается в том, что 133 Мб/с делятся между всеми установленными устройствами. Стало быть, для требовательной графической карты нужен обособленный разъем. На разработку Accelerated Graphics Port (AGP) ушло немного времени. Первую версию интерфейса представили вместе с процессорами Pentium II для Slot 1. Шина AGP 1x обеспечила пропускную способность до 266 Мб/с. Впервые соединение с процессором было прямым — их «общению» никто больше не мешал. Появилась дополнительная адресация, которая позволила видеокартам посылать новый запрос во время получения уже заказанных данных.
Первая волна видеокарт под AGP не заставила себя долго ждать. В числе пионеров были Rendition Verite V2200, 3dfx Voodoo Banshee, NVIDIA RIVA 128, 3Dlabs PERMEDIA 2, Intel i740, ATI Rage, Matrox Millennium II и S3 ViRGE GX/2. Разумеется, многие из них при работе задействовали переходной мост.
В дальнейшем Intel совершенствовала шину AGP — появились AGP 2x, AGP 4x и AGP 8x. Каждая новая версия отличалась от предыдущей еще большей пропускной способностью и улучшенными электротехническими характеристиками. AGP 8x обладала внушительной пропускной способностью 2133 Мб/с. Достигнуть этого предела производители видеокарт не успели, по команде Intel индустрия двинулась дальше.
На протяжении всей истории человечества всегда находились провокаторы в хорошем смысле слова, выдумщики и просто светлые головы. Люди, которые никогда не сидели на месте и старались привнести в мир что-то новое. Встречайте одного из таких — Чета Хита (Chet Heath).
Этот сотрудник IBM с тридцатилетним стажем отвечал за разработку многих ключевых компонентов, которые в том или ином виде присутствуют в компьютерах и по сей день. В нашей статье мы затронули сразу два из них — шину MCA и технологию Plug-n-Play. Подобных ему в IBM называют «дикими утками» (wild duck), и именно они вращают колесо прогресса.
Хит пока является единственным сотрудником IBM, дважды получившим награду компании за технологические достижения! Зная, какое влияние оказал «Голубой гигант» на компьютерную индустрию, можно предположить, что Чету мы обязаны многим.
В июне 2000 года Хит покинул родные пенаты. Стало тесно — руководство компании не захотело принимать в оборот предлагаемую им серверную технологию, а раз так, надо двигать дальше. В данный момент наш герой трудится в роли технологического директора на славу компании OmniCluster. Посмотрим, что еще он явит миру.
Задел на будущее
Переход на PCI Express вызвал немало вопросов. К моменту появления интерфейса в 2004 году многие лишь недоуменно поднимали бровь — зачем нужна пропускная способность порядка 4 Гб/с, если видеокарты до сих пор не используют всех возможностей AGP 8x? И зачем возвращаться к PCI?
Уже потом люди узнали, что от PCI-архитектуры в PCI Express осталось только название, шина таит в себе много новых возможностей. Так, инновационный интерфейс вернул позабытую технологию 3Dfx SLI в виде подретушированных NVIDIA SLI и ATI CrossFire. Как обычно, при переходе на новую шину широко использовали переходные мосты. История повторяется вот уже который раз, и с каждым новым витком она становится все интереснее!
Самые необычные видеокарты прошлых лет
С момента выпуска первого устройства вывода изображения, с момента выпуска первого 3D ускорителя графики прошло довольно много времени, и за это время производители видеокарт выпустили огромное кол-во моделей. Какие-то были удачными, какие-то с грохотом провалились, а какие-то запомнились за свои причудливые функции, внешний вид или кривость. В данной статье рассмотрим самые необычные видеокарты, которые существовали или могли существовать ранее.
Начнем с чего-то более старого:
VLB — Ну ооочень длинная шина
Видеокарты VLB (Vesa Local Bus *прозвище Very Long Bus*) сами по себе являются все необычными — очень длинные видеокарты, порой, занимающие всю ширину свободного пространства корпуса и 2 слота материнской платы — ISA и EISA (подобие PCI), образующие в сумме шину VLB
3dfx: профессиональная, и очень длинная
В 90-х годах 3dfx выпускала по настоящему мощные, профессиональные решения. Эти видеоускорители можно по настоящему считать «гигантами прошлого»
Такие устройства были предназначены для любителей мощностей и для профессиональной деятельности, разработки игр и других нужд.
3D графика Должна быть Более реалистичной!
В конце 90-х, в начале нулевых, 3D фильмы в кинотеатрах были чем-то экзотичным, особенным, от которых у всех вызывало восхищение. Asus увидела это и создала линейку видеокарт версии Deluxe. Это были обычные видеокарты Riva TNT, MX200, MX440 и т.п с добавлением нескольких разъемов вывода, но главная особенность была в комплектации — к таким видеокартам прилагались настоящие проводные 3D очки, которые подключались к разъему Jack 3.5» на видеокарте
Данная версия Deluxe распространялась на видеокарты v3xxx — v8xxx, и я стал обладателем одной из них. Осталось только найти время поехать и купить 3D очки к данной видеокарте.
Двухчиповая немощь из 2000-х
Начнем с другой темы — компьютерные сборщики. Некоторые сборщики компьютеров, которые собирают дорогие компьютеры на продажу, делают акцент не на производительности, а на красоте. Что-то аналогичное сотворила малоизвестная компания XGI — Двухчипового монстра на AGP шине, который практически ничего не может. Оно и не удивительно — XGI составляла бывших работников компании SiS, которая выпускала чипсеты. Чем-то напоминает историю VIA с разработкой процессоров…
Огромная компонентная база, высокая плотность элементов, 2 коннектора для доп питания — выглядит мощно, но в деле показывает отстойные результаты. Драйвера были сырыми — когда Volari с трудом справлялась с текстурами 256х256, Nvidia и ATI легко манипулировали текстурами в 2048х2048. Видеокарта от XGI была неспособна нормально обработать анизотропную фильтрацию, про сглаживание и различные эффекты можно было вообще забыть. С учетом того, что ценник на нее был на уровне конкурентов — продажи провалились, и компания тихо ушла в небытие. Данная видеокарта подходит лишь для того, чтобы собрать красивый офисный компьютер на зависть коллегам.
Двухчиповая мощь из 2000-х
Другая компания решила повторить тот же маневр по внедрению двухчиповых видеокарт на рынок, и у нее на этот раз все прошло успешно — никакой красоты, только производительность!
В отличии от XGI, тут не было никаких проблем — качественные компоненты и пайка, неплохо работающие из коробки драйвера — все это вывело видеокарту в флагманы 2004 года, местами вдвое обгоняя GeForce 5950 Ultra
Последнее творение S3 Graphics
Все помнят такие карточки PCI, как S3 Trio — они производились фирмой S3 Graphics, фирма была нацелена на самую минимальную стоимость чипа, чтобы занять место самых дешевых видеокарт и завоевать популярность, но с выходом видеокарт на PCI-e у них что-то не задалось…
Чип данной видеокарты производился по нормам 90 нм техпроцесса, видеокарта имела интерфейс PCI-E и 256 МБ памяти. В общем и целом она была бы на уровне middle-видеокарт от ATi и Nvidia того времени, если бы не одно но — отвратительные драйвера: те, кто рискнул купить такую карточку, как будто попадали на 5 лет назад: одна игра хорошо работает на одних драйверах, но не работает на других, вторая игра вообще ни на одних драйверах не работает, а третья наоборот, резво бегает на любом драйвере. И в общем-то мало людей хотели перед каждой игрой подыскивать работающие драйвера, так что очередной выход S3 на рынок провалился и компанию признали банкротом.
Зачем производить что-то новое, если есть популярное старое?
Все помнят такие видеокарты, как nVidia FX, которым многим запомнились тем, что потянули сталкер в 15-20 FPS. На тот момент карточки были довольно популярными и nVidia решила перевести эту серию с AGP на шину PCI-e. Так появилась дешевая серия видеокарт nVidia PCX
Видеокарты были созданы на основе старых чипов видеокарт FX: FX 5300 — PCX 5300, FX 5900 — PCX 5900. Помимо основного GPU, видеокарты оснащались сопроцессором, который конвертировал работу AGP в PCI-e.
Новая шина — новые проблемы
С появлением шины PCI-e у пользователей возникли проблемы — все на тот момент сидели на AGP, и с переходом на новую платформу было необходимо менять видеокарту. Да, были выпущены переходники-конвертеры, но стоили они необычайно дорого, из-за чего спрос на них был крайне мал
Эта видеокарта была хороша для любого пользователя: и тому, кто сидит на старой системе, и тому, кто собирает новый компьютер или постепенно переходит на новую систему.
Прощание с AGP
Как только все производители переключились на производство видеокарт с шиной PCI-e, пользователи старых компьютеров ощущали нехватку мощности видеокарты, с выходом новых игр и приложений. Апгрейдиться на чуть мощную видюшку не имело смысла, поэтому производители выпустили последнюю, одну из самых мощных карт на AGP, которая является высшим звеном по производительности на AGP шине
Такая видеокарта была почти топовой, и в 2008 году без проблем справлялась со всеми играми и позволяла оттянуть апгрейд на материнскую плату с PCI-e еще на пару-тройку лет. Сейчас она по прежнему популярна, ведь она позволяет играть в популярные простенькие онлайн игры на низких настройках графики
Офисное звено
Пока производители делали игровые и офисные решения на pci-e, ATI решила попробовать сделать что-то необычное — как насчет возвращения в прошлое?
Напоминает времена S3 Trio видеокарт, которые были на шине PCI. Да, такое решение не является каким-то мощным, ведь главное предназначение видеокарты — офис, с чем она хорошо справлялась.
ATI: Попытка внедрить СВО
Сейчас СВО (системами водяного охлаждения) никого не удивишь — это уже становится нормой для охлаждения топовых разогнанных GPU и CPU с тепловыделением за 250-300 Вт. Но вот в 2006 году это было в диковинку — тогда на рынке балом правили кулеры, да и не было тогда прям настолько «жрущих» видеокарт, так что СВО была скорее поводом показать крутость, чем необходимостью:
Сама видеокарта интересна не только этим — в ней было аж 512 МБ GDDR4: повторюсь, это 2006 год, в то время еще было полно компьютеров с таким же объемом ОЗУ. В итоге именно с помощью этих карт ATi подвинула Nvidia, а счастливые обладатели сего железа могли без проблем играть еще года 3, пока Shader 3.0 не стали обязательными во всех играх.
Вам не нужен мощный блок питания!
В конце 90-х и в начале нулевых насчет блока питания мало кто задумывался: простейшего китайского БП на 250-300 Вт хватало за глаза. Но вот к середине нулевых картинка стала меняться — появились мощные процессоры с тепловыделением под 100 Вт и двухчиповые видеокарты, которые не отставали по этому показателю от CPU. И именно тогда на рынке стал ощущаться дефицит хороших качественных БП. Разумеется, через некоторое время эта ниша была занята, но до этого некоторые производители видеокарт стали изгаляться и выпускать видеокарты. с собственным блоком питания:
Да-да, в 2005 году у Asus была мощная двухчиповая видеокарта, которую можно было запитать или от стандартного 6 pin, или от внешнего БП. Однако особой популярности такая видеокарта не снискала — в основном, из-за цены: мало у кого были деньги на двухчиповый флагман. Ну а через пару лет проблем с БП не было от слова совсем — без труда можно было купить качественный блок хоть на 1000 Вт, так что смысл в БП для видеокарты исчез.
Истинная офисная затычка
Видеокарты для офисных задач существовали всегда — они не отличались сильной производительностью и имели узкую шину в 64bit. И однажды Palit решила пойти дальше — она выпустила видеокарту с параметрами 32bit!
Пропускная способность и столь слабый GPU Тут играют существенную роль — истинный вариант видеокарты для косыночного гейминга на офисной пекарне!
После выпуска этой видеокарты, Palit продолжила издеваться над офисными картами, а после эту фишку подхватили другие производители. Благо, что это далеко не зашло, и таких карт существует довольно мало
Затычка для PCI-e 1x
На некоторых офисных компьютеров 2008 года выпуска, порой отсутствовал слот pci-e (Зачастую на материнских платах Intel) и графическое решение тут могло быть только одно — встроенная графика, которую зачастую нехватало. Производители позаботились об этом и выпустили видеокарту на шине PCI-e 1x:
Разумеется, скорости такого интерфейса не хватает для нормальной работы даже среднеуровневых видеокарт, но с учетом того, что HD 5450 является по сути «интернет-затычкой», то тут никаких проблем со скоростью нет. Всяко лучше, чем встроенная графика.
Универсальная затычка
Хотите по максимуму проапгрейдить свой старый компьютер прошлого века, но у вас уже все по максимальной комплектации? Выход есть!
Такую видеокарту не грех поставить в старенький системный блок на Socket 7, чтобы выводить картинку по HDMI 🙂 А если серьезно, то шины видеокарты нехватало для полной работоспособности, но для систем на Socket 7, Slot 1 и Socket 370, такое решение явно хорошо бы смотрелось
Беспроводной монитор — фантастика, оставленная в прошлом
Энтузиазм и креативность некоторых компаний может очень сильно поражать, и порой, что-то выходит за рамки фантастики:
Эти антенны были созданы для беспроводной передачи картинки по стандарту WHDI, что позволяло передавать изображение в 1080р на расстояние до 30 метров на ресивер, который подключался к монитору или телевизору. Увы — на практике задержка сигнала была достаточно большой, так что для игр такая технология подходила слабовато. С учетом более высокой цены, чем у конкурентов (она была сравнима с GTX 470), особых продаж не было, и больше сей трюк уже никто не повторял.
Двухчиповые монстры:
Как мы знаем, двухчиповые видеокарты уже давно не диковинка, и насколько известно, Intel проектирует свои четырехголовые видеокарты. Но нас интересует прошлое, а именно самые необычные «змеи» с несколькими головами:
В конце 90-х годов компании всячески пытались соединить пару или несколько чипов для увеличения производительности. Главным родителем этой идеи была 3dfx, но на пороге ее банкротства, эту идею подхватили и другие производители, к примеру ATI. Это первая попытка ATI соединить два чипа на одной карте., но попытка была не очень удачной, так как выяснилось, что в Windows NT такой способ объединения не работает (под NT, 2000, XP ит.д. у этой карты может работать только один чип в лучшем случае). Поэтому карта работала как надо только под Windows 98 / Me. Следующие попытки имели более высокий успех.
EVGA придумала достаточно жуткое решение: на видеокарте было распаяно два чипа: первый представлял собой GTX 275 с 896 МБ памяти и был призван обрабатывать графику и выводить картинку на экран, а вот второй был слабее — GTS 250 с 384 МБ памяти, который должен был обрабатывать движок PhysX для моментальной обработки взрывов и других эффектов.
Если окунуться чуточку в прошлое, существовали менее известные монстры:
Эта видеокарта состояла из 2-х чипов 6600GT и 256Mb, которые были объединены с помощью технологии SLI, которая стала первая в своем роде такой химерой. Работала такая видеокарта лишь на одной материнской плате — тоже от Gigabyte, на сокете 939 (процессоры Athlon 64), так что конфигурация ПК была, в общем-то, уже предрешена. Опять же — такая видеокарта не взлетела, ибо на момент ее выхода практически ни одна игра не поддерживала SLI.
А вот ATI позже подошла к этому вопросу очень интересно:
Что может говорить «X3» и «Trinity» в названии? Да только одно — то, что это была видеокарта с тремя GPU. Да-да, многие привыкли к тому, что технология CrossFire или SLI работает с двумя видеокартами, однако это не так — они обе могут работать с видеокартами, на которых может быть суммарно до 4 GPU. Ну до четырех ASUS не дошла, а вот три видеокарты HD 3850 стандарта MXM (на небольших платах, которые обычно ставились в ноутбуки) на одной плате она все-таки разместила. охлаждалось это все системой водяного охлаждения, а производительность в теории должна была быть очень высокой — каждый чип содержал по 320 потоковых процессоров, а объем памяти был 512 МБ. Но, увы, карточка «не взлетела» — как мы знаем, CrossFire и SLI даже с двумя видеокартами в играх работает не очень хорошо, с тремя же был полный «швах». С учетом этого и достаточно высокой ожидаемой цены дальше десятка инженерных образцов дело не продвинулось. А жаль, ведь запросто можно было бы запросто поменять чип с отвалом, заменив его на другой.
Двухчиповый бутерброд из двух видеокарт 7900GT был довольно интересной моделью, но крайне дорогой. Из-за высокого TDP и столь малого охлаждения, те, кто купили данные видеокарты, стали жертвами отвала через несколько лет после покупки. В таком же стиле были выпущены несколько версий видеокарт различных моделей, включая профессиональную Quadro FX 4700 X2, состоящую из двух чипов видеокарты 8800GT
Остальные решения вызывают или вопросы, или восхищения по внешнему виду:
Трехслотовая видеокарта среднего сегмента, с довольно интересным охлаждением, которое подключается к видеокарте отдельно. Модульность, которая показалась людям полным бредом, ведь это было крайне громоздко, и питания модуля подключалось отдельно, что было дико неудобно. Зачем Galaxy сделала такое — непонятно, ведь потребление вентиляторов не превышало 15-20вт.
А вот эта видеокарта представляет в себе мощь во всей своей красоте:
Также существовали другие, более известные и более популярные двухчиповые видеокарты: