News Offiziell: „Fermi“ a.k.a. GT300

Status
Für weitere Antworten geschlossen.
Zeigen die Bilder denn wirklich die neue Grafikkarte, oder ist das der Nachfolger der Tesla, also eine Karte für reines GPGPU, ohne Monitorausgänge?
 
Hi, bin neu hier im Forum!

Gibt es denn schon Infos über die Taktraten des GT300? Ich habe schon fleißig gesucht, aber noch nichts gefunden. Ich denke so oder so wird der GT300 trotz des 40nm Vertigungsverfahrens eine enorme Leistungsaufnahme und damit auch eine enorme Abwärme,gegenüber des GT200 produzieren.Oder was meint ihr? Ich bin schon gespannt, wie Nvidia die Lösung mit der Kühlung meistern will^^
 
Steht doch direkt neben dem Bild:
Update 30.09.2009:
Nvidia-CEO Jen-Hsun Huang zeigte auf der GTC, der GPU-Technology-Conference soeben zum ersten Mal eine G300-.Grafikkarte (aus der Tesla-Reihe) der Öffentlichkeit. Außerdem wurde eine CUDA-Simulation in Double-Precision im Vergleich zum GT200 im Tesla C1060 gezeigt. Fermi oder G300 erreichte dabei circa die 4,5-5-fache Performance bei einer n-Body-Simulation.

So sind doch auch quasi alle Informationen rund um diese GPGPU Veranstaltung HPC betreffend.
 
die Karte ist so gross wie eine GTX 285, GTX 280, 9800GTX, 8800GTX.......................... :rolleyes:

ja richtig, die waren alle gleich gross............

Auf dem Foto ist übrigens eine Tesla Karten

xxxx schrieb:
@Dural unwahrscheinlich weil du vergisst eins es wird dort GDDR5 Speicher eingesetzt und der ist allgemein Stromhungriger als der vorher verbaute GDDR3 die 240/250W waren nur in Relation zum Verbrauch der HD5870 gesetzt die aber schon auf GDDR5 aufbaut.

ganz kurz: nö
 
Screemer schrieb:
bei soviel euphorie bin ich mal gespannt was da wirklich dabei rumkommt.

ich sag nur "the future is fusion".

das ist schon fusion was Nvidia da liefert C prgramming !!!!!!!

Ich denke daurch das der gt300 eine Neuentwicklung ist können sie sie in schon anpassen und zu jeder ATI Karte ein Kontrahent kommt ist ja nur 300 Bit interface und als ob Nvidia die noch teureren gt200 umlabelt für Midrange Karten?

fragt sich nur was dann alles so übrigbleibt von der Orinal Tesla, 32 Bit statt 24 Bit wäre schon geil weil dadurch ältere Programme besser laufen.
 
HFkami schrieb:
...

fragt sich nur was dann alles so übrigbleibt von der Orinal Tesla, 32 Bit statt 24 Bit wäre schon geil weil dadurch ältere Programme besser laufen.

aehm, dass erklaer mir mal bitte... :D
 
Würde mich auch mal intressieren, ob Nvidia die GT200 umlabelt. Außerdem könnte man die 260, 285 oder auch 295 er gut als PhysX Karte mit der GT300 paaren, wobei ich bezweifle ,dass es in nächster Zeit etwas geben wird, das die Karte in die Knie zwingt^^ ( Bis auf Crysis 2 nächstes Jahr ^^)
 
crysis 2 wird nicht sonderlich hardwarhungriger sein als crysis. ganz einfach aus dem grund, dass es auch auf konsolen laufen muss. gibt ja schon genug videos der neuen cryengine.
 
Wenn lauthals mit theoretischen Leistungswerten und Kapazitäten geworben wird, ist das Produkt für den aktuellen Markt wenig brauchbar. So wird dieses Monstrum sich zwar gut anhören und -fühlen, seinen Durchbruch aber frühestens mit seiner nächsten Inkarnation feiern können. Exotische Hardware mit Potenzial...mehr (noch) nicht;)
Für den Spieler ist das alles vollkommen uninteressant. Bei AMD gibts schließlich anwendungsnahe Spielerkarten zum günstigen Preis. Keine Chance, dass NV da mit ihren superteuren Wollmilchsäuen auch nur ansatzweise den Markt bewegen können wird.
 
oh man wenn ich mir das so anschaue kommt mir meine 8800gts mim g80 noch älter vor als sie eigentlich schon ist...
 
Allerdings sprechen die 512 Cuda Cores und die 3 milliarden Transistoren leistungsmäßig für sich ( auch oder bzw grade für gamer) Das man mit der Karte nicht nur zocken kann, spricht für sich:)^^
 
@ Mr Tee
abwarten ...nvidia ist ja nicht erst seit gestern im geschäft u. deren kundenstamm
ist nicht zu verachten ....wenn se´s geschickt anstellen, schlägt das teil wirklich ein
wie ne bombe ....finde hat parallelen zur ersten geforce damals mit T&L ....weit ihrer
zeit voraus.....schau mer mal was der winter bringt.
 
@ Skipan

Aber die 8800gts G80 ist doch immernoch eine akzeptable Karte, sofern man nicht Crysis auf sehr hoch mit xx AA zocken möchte^^
Ergänzung ()

Kann es auf jedenfall kaum noch erwarten, bis die Karte im Handel ist :)
 
@QX9770-Freak
für meinen 19zoller hat se auch vollkommen gereicht bzw reicht heute fast auch noch aber für meinen 22zoller mit 1920*1080 reichts manchmal net mehr.
 
Das kenne ich, meine 8800Gt 1Gb in meinem 2. pc reicht auch für meinen 22zöller nicht mehr ( bald wandert meine 280gtxvom 1.pc da rein) Die 8800gts G80 hat doch ein 384bit interface oder? die neue hat ja 256 bit
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben