I peggiori GPU di tutti i tempi rumorose, deludenti, innovative | ENBLE

Le peggiori GPU di sempre rumorose, deludenti, innovative | ENBLE

Quando si guardano alcune delle migliori schede grafiche di oggi, è facile dimenticare che Nvidia e AMD (e più di recente, Intel) non sono sempre stati gli unici protagonisti nel campo delle GPU. Mentre sia AMD che Nvidia hanno commesso la loro parte di errori con le GPU, non sono le uniche due marche dietro alcune delle peggiori GPU di tutti i tempi.

Diamo un’occhiata alle schede grafiche che ti faranno apprezzare il panorama attuale delle GPU, e sì, includendo anche le schede che sono al limite degli errori. (Ciao, RTX 4060 Ti.) Ecco le GPU che hanno fatto terribilmente male, anche se ognuna aveva qualcosa di interessante o innovativo da offrire.

Siamo concentrati sul passato qui, principalmente su marchi che sono svaniti nell’oblio. Assicurati di dare un’occhiata alle nostre altre raccolte per altri esempi più moderni:

  • Le peggiori GPU AMD di tutti i tempi
  • Le peggiori GPU Nvidia di tutti i tempi

Intel740

Vintage3D

Arc Alchemist non è stata la prima avventura di Intel nel campo delle GPU discrete, e neanche la DG1. Molto prima di questi progetti è arrivato l’Intel i740, ed è una GPU che fa sembrare molto meglio tutti gli altri tentativi di Intel.

Nel periodo tra la metà e la fine degli anni ’90, Intel è entrata nel campo dell’accelerazione grafica 3D. Il mercato emergente dei giochi per PC, con titoli come Doom, Quake e Tomb Raider, stava iniziando a mettere in evidenza quanto le grafiche 3D sarebbero state importanti in futuro. Forse è questo ciò che ha tentato Intel a uscire dal suo dominio principale – che, anche allora, era la produzione di alcuni dei migliori processori – e cercare di realizzare GPU discrete.

L’Intel740, conosciuto anche come i740, è stato lanciato all’inizio del 1998. Era una GPU da 350nm che si basava sull’ormai dimenticata interfaccia AGP, che sembrava promettente rispetto a PCI (fai attenzione alla differenza – non PCIe) in quei giorni. Infatti, è stata una delle prime GPU a utilizzare l’AGP, che in seguito si è rivelato un fattore determinante per il suo declino.

Funzionava con una modesta frequenza di 66MHz e aveva da 2 a 8MB di VRAM su un bus a 64 bit. Queste specifiche sembrano ridicole se giudicate dagli standard odierni e anche allora erano un po’ scarse. La quantità di VRAM era inferiore a quella che alcuni concorrenti di Intel erano in grado di fornire, ma l’interfaccia AGP era destinata ad aiutare; purtroppo, ha solo contribuito a ridurre le prestazioni della CPU riempiendo la RAM principale con texture e occupando la capacità del processore. Anche la GPU è stata influenzata da questo processo complicato.

Nonostante molta attesa, l’Intel740 è stato un fallimento. Anche se poteva diventare una soluzione per il rendering delle grafiche 3D, a volte non riusciva a gestirle bene, producendo artefatti e scarsa chiarezza visiva. Le voci sulle sue scarse prestazioni si sono diffuse rapidamente. Nonostante Intel si fosse rivolta principalmente ai produttori di PC pre-assemblati (OEM) con questa GPU, ci è voluto poco tempo per dimenticarla, poiché gli appassionati di giochi sapevano di stare alla larga dall’i740.

All’epoca il mercato delle schede grafiche era molto volatile e si evolgeva rapidamente, quindi un fallimento del genere deve essere stato un duro colpo per Intel. Tuttavia, dopo alcuni ulteriori tentativi di realizzare GPU discrete, si è orientata verso le grafiche integrate, dove ha trovato successo negli anni a venire.

S3 ViRGE

Retronn

Prima di stabilirci nel panorama attuale di AMD, Nvidia e Intel, il mercato delle GPU aveva alcuni nomi in più che cercavano di attirare l’attenzione. Una di queste aziende era S3, che è salita alla ribalta molto rapidamente nei primi anni ’90. Come Intel, S3 ha capitalizzato il boom delle grafiche 3D e ha progettato chip grafici che offrivano accelerazione 3D. Alla fine, il S3 ViRGE è diventato noto come un “deacceleratore 3D” ed è ora ricordato come una delle peggiori GPU di tutti i tempi.

Alla sua uscita, il S3 ViRGE è stato commercializzato come il “primo acceleratore grafico 3D integrato al mondo”. Era, infatti, uno dei primi chipset di questo tipo progettati per il mercato di massa. Supportava circa 2MB o 4MB di SDRAM su un bus a 64 bit e aveva una frequenza di clock di 55MHz. Poteva renderizzare grafiche 2D e 3D e offriva risoluzioni fino a 800 x 600 in 3D. Sebbene facesse un lavoro abbastanza decente in 2D, non ha impressionato nel 3D – e quello era l’intero scopo e schema di marketing del chip.

Di fronte a rendering 3D relativamente semplici, l’S3 ViRGE era effettivamente un po’ più veloce della migliore soluzione basata su CPU di quei tempi. Tuttavia, quando si trattava di rendering sempre più complessi richiesti per i giochi 3D, inclusi compiti come il filtraggio bilineare, la GPU si è dimostrata effettivamente più lenta del rendering software (che sostanzialmente significava utilizzare la CPU per scopi grafici). Questo è ciò che gli ha guadagnato il nome beffardo di “deceleratore 3D del mondo”, perché gli utenti preferivano disattivare l’accelerazione 3D e utilizzare invece la CPU.

La notizia delle scarse prestazioni 3D del chip si diffuse rapidamente e il rapido passaggio dal 2D al 3D nel mercato dei giochi non aiutò. S3 cercò di correggere ciò che era andato storto con le future GPU, come ViRGE/DX e ViRGE/GX, ma si trovò ad affrontare concorrenti agguerriti come Nvidia, ATI (successivamente AMD) e 3dfx. Alla fine, S3 non riuscì a competere nel crescente mercato 3D, anche se continuò a produrre chip per il segmento di fascia media.

Nvidia GeForceFX 5800

Anandtech

Incontra la GeForce FX 5800 Ultra – la prima (e unica?) GPU su cui Nvidia ha fatto un video parodistico. Sì, Nvidia stessa ha realizzato un video di due minuti che prendeva in giro questa GPU, ma è successo solo dopo che era stata lanciata sul mercato e si era guadagnata l’appellativo di “spolverino” delle schede grafiche.

Nvidia aveva grandi progetti per la serie FX. Doveva essere un grande salto nell’era di DirectX 9, che rappresentava una transizione significativa per il gaming su PC. Questa GPU arrivò in un momento in cui Nvidia era già leader di mercato, anche se ATI Technologies la seguiva da vicino con la linea di schede grafiche Radeon. L’inciampo di Nvidia con la serie FX fu un imprevisto contrattempo, ma come sappiamo ora, la dominanza di ATI/AMD non durò a lungo e Nvidia controlla ora la maggior parte del mercato, forse a discapito dei giocatori su PC.

La FX 5800 Ultra veniva prodotta con un processo a 130nm e funzionava a una frequenza di 500MHz (core e memoria, per un effettivo 1GHz). Utilizzava una memoria GDDR2 da 128MB su un’interfaccia a 128 bit. Nvidia l’ha dotata dell’architettura CineFX per migliorare il rendering cinematografico e l’ha progettata in modo da renderla efficiente nel processo di shader DirectX 9.

Sulla carta sembrava ottima. Nella realtà, invece, non lo era affatto. Si comportava abbastanza bene nei giochi DirectX 8, ma aveva difficoltà con alcuni titoli DX9 e la Radeon 9700 Pro di ATI rappresentava un’alternativa allettante che non aveva gli stessi problemi. Tuttavia, il problema principale della FX 5800 Ultra era il rumore.

Nvidia aveva implementato una soluzione di raffreddamento innovativa in questa GPU chiamata FX Flow. Questo avrebbe dovuto mantenere la GPU, che di solito si surriscalda, a una temperatura confortevole anche durante il gioco intenso. Tuttavia, la piccola ventola che alimentava l’ingegno doveva funzionare a velocità molto elevate per tenere il passo. Il risultato era uno dei rumori più forti mai prodotti da una GPU per consumatori.

Nvidia non mantenne a lungo questo modello di raffreddamento. La maggior parte dei suoi partner tornò a metodi di raffreddamento tradizionali per i modelli FX 5900 XT e 5900 Ultra, e da allora non abbiamo più visto nulla del genere.

3dfx Voodoo Rush

3dfx era un tempo un formidabile rivale di Nvidia e ATI. Salì alla ribalta nei primi anni ’90 e, come molti altri produttori di GPU dell’epoca, cavalcarono l’onda delle grafiche 3D fino a quando non crollarono. Nvidia alla fine acquistò la maggior parte delle sue risorse nel 2000. Sebbene il declino dell’azienda non possa essere attribuito a una singola scheda, aveva alcune soluzioni interessanti che alla fine fallirono nel mercato mainstream, e la GPU 3dfx Voodoo Rush è forse uno degli esempi più riconosciuti.

L’insieme di chip Voodoo Rush era un seguito del prodotto iniziale dell’azienda, il Voodoo1. Integrava accelerazione 2D e 3D in una singola scheda, abbinando le capacità 3D delle grafiche Voodoo con un core 2D di altri produttori. Sì, sto parlando di una configurazione a doppio chip.

La GPU offriva 6MB di EDO DRAM, una velocità di clock massima di circa 50MHz e supporto per cose come l’API Glide, Direct3D e OpenGL, nonché una risoluzione massima di 800 x 600 nelle applicazioni 3D. Sulla carta sembrava promettente, ma una volta che il prodotto effettivo fu disponibile e la gente poté testarlo, diversi problemi emersero al di là dell’entusiasmo.

Per cominciare, si trattava di una GPU massiccia con una tendenza a surriscaldarsi, ma il problema principale risiedeva nell’architettura e in come tutto si sommava a prestazioni spesso peggiori rispetto al Voodoo 1 nei giochi 3D. Problemi di compatibilità e artefatti visivi non erano rari, e una volta che questi problemi vennero alla luce, recensori e utenti si rivoltarono contro questa GPU.

La scarsa accoglienza del Voodoo Rush non fu ciò che alla fine sigillò il destino di 3dfx. L’azienda continuò a produrre altre GPU, incluso il (anch’esso controverso) Voodoo 5 6000 che veniva fornito con il suo adattatore di alimentazione. Speriamo che Nvidia non abbia un’idea simile per una delle sue future ammiraglie gigantesche, perché il risultato finale era abbastanza divertente da guardare.