Худшие графические процессоры всех времен: громкие, разочаровывающие, скучные

Когда вы смотрите на некоторые из лучших видеокарт современности, легко забыть, что Nvidia и AMD (а в последнее время и Intel) не всегда были единственными игроками в игре с графическими процессорами. Хотя и AMD, и Nvidia совершили свою долю ошибок в графических процессорах, они не единственные бренды, создавшие одни из худших графических процессоров всех времен.

Давайте взглянем на некоторые видеокарты, которые заставят вас оценить текущую ситуацию с графическими процессорами, и да, даже включая карты, которые допускают пограничные ошибки. (Привет, RTX 4060 Ti .) Вот графические процессоры, которые сделали это ужасно, ужасно неправильно, хотя каждый из них мог предложить что-то интересное или инновационное.

Здесь мы сосредоточены на прошлом, в основном на брендах, которые исчезли из поля зрения. Обязательно ознакомьтесь с другими нашими обзорами, где вы найдете более современные примеры:

Интел740

Видеокарта Intel i740 на столе.
Винтаж3D

Arc Alchemist не был первым предприятием Intel в области дискретных графических процессоров, как и DG1. Задолго до любого из этих проектов появился Intel i740, и этот графический процессор делает все остальные попытки Intel намного лучше.

В середине-конце 1990-х годов Intel присоединилась к программе ускорения 3D-графики. Растущий рынок компьютерных игр с такими играми, как Doom, Quake и Tomb Raider , действительно начал привлекать внимание к тому, какое значение 3D-графика будет иметь в будущем. Возможно, именно это побудило Intel отойти от своей основной сферы деятельности, которая уже тогда производила одни из лучших процессоров , и попытаться создать дискретные графические процессоры.

Intel740, также известный как i740, был выпущен в начале 1998 года. Это был 350-нм графический процессор, основанный на давно забытом интерфейсе AGP, который в те времена выглядел многообещающе по сравнению с PCI (обратите внимание на разницу, а не с PCIe). Фактически, это был один из первых графических процессоров, использующих AGP, что позже сыграло свою роль в его падении.

Он работал на скромной частоте 66 МГц и имел 2–8 МБ видеопамяти по 64-битной шине. Эти характеристики кажутся смешными, если судить по сегодняшним меркам, и даже тогда они были немного неправильными. Объем видеопамяти был ниже, чем могли предоставить некоторые конкуренты Intel, но интерфейс AGP должен был помочь; к сожалению, это привело лишь к снижению производительности процессора, набивая основную оперативную память текстурами и занимая мощность процессора. Этот запутанный процесс также затронул графический процессор.

Несмотря на большую шумиху, Intel740 потерпел неудачу. Хотя он, возможно, и задумывался как решение для рендеринга 3D-графики, иногда он не справлялся с ними должным образом, вместо этого создавая артефакты и низкую визуальную четкость. Слухи о его плохой работе быстро распространились. Хотя Intel в основном ориентировалась на производителей готовых ПК (OEM) с этим графическим процессором, потребовалось совсем немного времени, чтобы о нем забыли, поскольку энтузиасты игр знали, что следует держаться подальше от i740.

Рынок графики в то время был очень нестабильным и быстро развивался, поэтому подобный провал, должно быть, стал неудачей для Intel. Однако после еще пары попыток создания дискретных графических процессоров компания перешла на интегрированную графику, где добилась успеха на долгие годы.

S3 ВИРГЕ

Видеокарта S3 ViRGE.
Ретронн

Прежде чем мы остановились на нынешнем ландшафте AMD, Nvidia и Intel, на рынке графических процессоров было еще несколько имен, претендующих на внимание. Одной из таких компаний была S3, которая очень быстро приобрела известность в начале-середине 1990-х годов. Как и Intel, S3 воспользовалась бумом 3D-графики и разработала графические чипы, обеспечивающие 3D-ускорение. В конце концов, S3 ViRGE стал известен как «3D-замедлитель», и теперь его помнят как один из худших графических процессоров всех времен.

После запуска S3 ViRGE позиционировался как «первый в мире интегрированный 3D-графический ускоритель». Действительно, это был один из первых подобных чипсетов, предназначенных для массового рынка. Он поддерживал от 2 до 4 МБ SDRAM по 64-битной шине и имел тактовую частоту ядра 55 МГц. Он мог отображать как 2D, так и 3D-графику и предлагал разрешение до 800 x 600 в 3D. Хотя в 2D он проделал достаточно приличную работу, в 3D он не впечатлил — в этом и заключалась вся цель и маркетинговая схема чипа.

При относительно простом 3D-рендеринге S3 ViRGE оказался немного быстрее, чем лучшее решение на базе процессора того времени. Однако когда дело дошло до все более сложного рендеринга, необходимого для 3D-игр, включая такие задачи, как билинейная фильтрация, графический процессор фактически оказался медленнее, чем программный рендеринг (что, по сути, означало использование ЦП для графических целей). Именно это принесло ему насмешливое прозвище «первый в мире 3D-замедлитель», поскольку пользователи предпочли бы отключить 3D-ускорение и вместо этого просто использовать процессор.

Слухи о плохой производительности чипа в 3D быстро распространились, и быстрый переход от 2D к 3D на игровом рынке здесь не помог. S3 попыталась исправить недостатки будущих графических процессоров, таких как ViRGE/DX и ViRGE/GX, но у нее были довольно жестокие конкуренты в лице Nvidia, ATI (позже AMD) и 3dfx. В конечном итоге S3 не смогла конкурировать на растущем рынке 3D, хотя продолжала производить чипы для среднего сегмента.

Нвидиа GeForceFX 5800

Графический процессор Nvidia GeForce FX 5800.
Анандтек

Встречайте GeForce FX 5800 Ultra — первый (и единственный?) графический процессор, о котором Nvidia сняла пародийное видео. Да, сама Nvidia сняла двухминутное видео, высмеивающее этот графический процессор, но только после того, как он был выпущен на рынок и стал известен как «Dustbuster» среди видеокарт.

У Nvidia были большие планы на серию FX. Это должно было стать большим скачком в эпоху DirectX 9, которая стала значительным переходом для компьютерных игр. Этот графический процессор появился в то время, когда Nvidia уже была лидером рынка, хотя ATI Technologies сильно отставала в линейке видеокарт Radeon. Неудача Nvidia с серией FX стала неожиданной неудачей, но, как мы теперь знаем, доминирование ATI/AMD длилось недолго, и теперь Nvidia контролирует большую часть рынка, возможно, в ущерб компьютерным геймерам .

FX 5800 Ultra был изготовлен по 130-нм техпроцессу и имел тактовую частоту 500 МГц (тактовая частота и память для эффективной частоты 1 ГГц). Он использовал 128 МБ памяти GDDR2 через 128-битный интерфейс. Nvidia оснастила его архитектурой CineFX для улучшения кинематографического рендеринга и разработала его с целью сделать его эффективным при обработке шейдеров DirectX 9.

На бумаге это звучало великолепно. На самом деле это было решительно не так. Он достаточно хорошо показал себя в играх DirectX 8, но имел проблемы с некоторыми играми DX9, а ATI Radeon 9700 Pro была заманчивой альтернативой, у которой не было таких проблем. Однако главной проблемой FX 5800 Ultra был шум.

Nvidia внедрила в этот графический процессор инновационное решение для охлаждения под названием FX Flow. Это было сделано для того, чтобы поддерживать комфортную температуру графического процессора, который обычно нагревался, даже во время тяжелых игр. Однако крошечный вентилятор, питавший это изобретение, должен был работать на очень высокой скорости, чтобы не отставать. В результате получился один из самых громких шумов, которые когда-либо производил потребительский графический процессор.

Nvidia недолго придерживалась этой модели охлаждения. Большинство ее партнеров вернулись к традиционным методам охлаждения для FX 5900 XT и 5900 Ultra, и с тех пор мы не видели ничего подобного.

3dfx Вуду Раш

Видеокарта Voodoo Rush.

3dfx когда-то была грозным конкурентом Nvidia и ATI. Он приобрел известность в начале 1990-х годов и, как и некоторые другие производители графических процессоров того времени, оседлал волну 3D-графики, пока не разбился и не сгорел. В конечном итоге Nvidia выкупила большую часть своих активов в 2000 году. Хотя упадок компании нельзя объяснить одной-единственной картой, у нее было несколько интересных решений, которые в конечном итоге потерпели неудачу на массовом рынке, и графический процессор 3dfx Voodoo Rush, пожалуй, один из самых признанные примеры.

Чипсет Voodoo Rush стал продолжением первого продукта компании — Voodoo1. Он объединил 2D- и 3D-ускорение в одной карте, объединив 3D-возможности графики Voodoo с 2D-ядром других производителей. Правильно, я говорю здесь о двухчиповой конфигурации.

Графический процессор обслуживал 6 МБ EDO DRAM, максимальную тактовую частоту ядра около 50 МГц и поддержку таких вещей, как Glide API, Direct3D и OpenGL, а также максимальное разрешение 800 x 600 в 3D-приложениях. На бумаге это звучало многообещающе, но как только реальный продукт был выпущен и люди смогли его протестировать, сквозь шумиху проступило несколько проблем.

Во-первых, это был массивный графический процессор, склонный к нагреву, но основная проблема заключалась в архитектуре и в том, как все это приводило к производительности, которая часто была хуже, чем у Voodoo 1 в 3D-играх. Проблемы совместимости и визуальные артефакты не были редкостью, и как только эти проблемы стали известны, как рецензенты, так и пользователи отвернулись от этого графического процессора.

Однако плохой прием Voodoo Rush не стал тем, что в конечном итоге решило судьбу 3dfx. Затем компания выпустила больше графических процессоров, включая (также спорный) Voodoo 5 6000, который поставлялся с собственным адаптером питания. Будем надеяться, что Nvidia не придумает подобную идею для одного из своих флагманов-гигантов следующего поколения , потому что на конечный результат было довольно забавно смотреть .