News Offiziell: „Fermi“ a.k.a. GT300

Status
Für weitere Antworten geschlossen.
Ich finde SLI ist das Maximum. Die skallierung ist einfach besser als mit trippl sli. Außerdem heizen sich die Karten so enorm gegenseitig auf, dass es zu Überhitzungsproblemeb kommen könnte. Bei einem sli System hat man mehr platz zwischen den Kar´ten und man kann noch einen anderen "besseren" Kühler verbauen.
Ergänzung ()

*tripple
Ergänzung ()

@Lübke

Das wäre ein feiner zug von Nvidia. GDDR5 mit dem G200B...........da wird sich in sachen Leistung wieder einiges verändern^^
Ergänzung ()

ATI ,nimm dich in acht.......^^
 
Besonders jetzt mit den bildern geht der Kampf Ati/Nvidia hoffentlich wird auch über den Preis gekämpft und nicht nur über die Leistung.
 
Ich glaube nicht, daß GDDR5 bei einer GTX 285 in 40nm noch einen Schub bringen würde, Speicherbandbreite ist satt da durch das 512bit SI.

Einen faden Beigeschmack hätte das je nach Namensgebung dann allerdings auch wieder, nVidia wäre wieder beim Umlabeln...
 
Zuletzt bearbeitet:
floh00 schrieb:
Besonders jetzt mit den bildern geht der Kampf Ati/Nvidia hoffentlich wird auch über den Preis gekämpft und nicht nur über die Leistung.

Das kann uns doch nur recht sein...Die Leistung ist fix, aber der Preis beweglich! :evillol:
 
dr.mutter schrieb:
sorry das ich die frage stellen muss kann man den damit in 4-sli jetzt endlich crysis auf alles hoch zocken^^ ?

Nö, denn eine Tesla ist keine Grafikkarte. Das Ding taugt höchstens als ultimativer PhysX-Beschleuniger... ein Must-Have für alle Cryostasis-Zocker ;-)
 
wahnsinn, wahnsinn. die verbesserungen für gaming sind schon revolutionär (an der einschätzung in meiner sig halt ich weiterhin fest), aber wo der chip wirklich in neue territorien vorstösst ist gp computing. mir persönlich wärs lieber gewesen nvidia hätte sich rein aufs gaming konzentriert, aber ist schon i.o. so. das ist halt die richtung in die nvidia geht, und in der sie ihre marktpräsenz ausbauen bzw anteile von anderen herstellern erobern können
 
Wenn dann endgültig erst gegen Februar mit dem Verkaufsstart der GT300er gerechnet werden kann, werden die Preise für die GTX 380 (also Spitzenmodell, Single-GPU) sicherlich um die 500€ liegen :rolleyes:

Genau das finde ich irgendwie total dumm. Ich wollt mir gegen Februar/März eine neue DX11 Graka holen, was voraussichtlich das Spitzenmodell der GT300er sein wird. Nur schade, dass ich bestimmt noch 1-2 Monaten warten muss, bis die Preise vernünftiger werden.
 
stoneeh schrieb:
wahnsinn, wahnsinn. die verbesserungen für gaming sind schon revolutionär (an der einschätzung in meiner sig halt ich weiterhin fest)
Ich fürchte, du wirst bitter enttäuscht werden. So wie sich die technischen Daten, die jetzt bekannt geworden sind, lesen, sollte man nur mit einem Plus von 60% gegenüber der GTX 285 rechnen und entsprechend einem Plus von nur 15-20% gegenüber der HD 5870 (und das ist schon optimistisch geschätzt). Die Double-Precision-Rechenleistung ist für Spiele egal und die Single-Precision-Rechenleistung wird nicht so stark ansteigen (von derzeit knapp 1,1 TFlops auf vielleicht 1,7 TFLops). Ich persönlich habe den GT300 deutlich stärker bei single precision, aber dafür auch deutlich schwächer bei double precision erwartet. Auch die Speicherbandbreite habe ich deutlich größer eingeschätzt als sie jetzt tatsächlich ist.
 
@stoneeh: in diese richtung muss nvidia, wenn sie mit intels larrabee auf konfrontationskurs gehen wollen. scheinbar sieht nvidia auch in raytracing zukunft. da ist eine ausdehnung in den cpu-bereich unerlässlich. imho ein interessanter schachzug, den ich vermutlich so nicht gemacht hätte... somit überlassen sie amd kurzfristig das rasterisierungsfeld und begeben sich auf intels teritorium und geben dem larrabee damit kielwasser. deine einschätzung, der g300 könnte die 5870 um 50-100% schlagen halte ich für völlig überzogen. nvidia steckt sehr viele resourcen in gpgpu. die verbesserungen im bereich rasterisierung werden sich imho in grenzen halten.
 
So wie sich die technischen Daten, die jetzt bekannt geworden sind, lesen, sollte man nur mit einem Plus von 60% gegenüber der GTX 285 rechnen und entsprechend einem Plus von nur 15-20% gegenüber der HD 5870
Es sind keine Taktraten bekannt ...
 
@QX9770-Freak: ich hoffe auch viel, denn die 5870 läuft imho noch mit angezogener handbremse, zumindest in bezug auf die möglichen taktraten. da hat ati vermutlich noch luft für eine 5890 gelassen. von der option eines refresh mal ganz abgesehn...

@y33H@: 60% wären schon heftig, wenn man mal die ganzen zusätzlichen features bedenkt. und bei 3 milliarden transistoren kann ich mir selbst bei 40nm keine wahnsinnig hohen taktsteigerungen vorstellen. das ganze muss ja auch noch versorgt und gekühlt werden ;)
aber vermutlich weist du da eh schon mehr als wir :D
 
y33H@ schrieb:
Es sind keine Taktraten bekannt ...
Man kann aber davon ausgehen, dass der Fermi nicht mit mehr als 900 MHz Chiptakt, 2200 MHz Shadertakt und 1600 MHz Speichertakt betrieben werden wird. Das wäre meiner Einschätzung nach aber notwendig, um mindestens 50% schneller als die Radeon HD 5870 zu werden.
 
Kasmopaya schrieb:
Der Leistungssprung bzw. Innovationssprung vom G70 auf G80 ist gerade zu winzig im Vergleich mit GT200 auf Fermi. :eek:
ft!

was laberst du da eigentlich für ne scheiße? erstens sind noch keine specs vom G300 bekannt, und zweitens sagen die specrs alleine recht wenig. und es wird in der spieleleistung aller wahrschienlichkeit nach keinen quantensprung geben,weils wieder nur ein aufgebohrter G80 ist.
QX9770-Freak schrieb:
PS: ich hoffe es wird den SLI support weiterhin geben:) Dann wandern 2 von den Dingern in meinen Rechner xD

und werden von der cpu limitiert,super idee.

Lübke schrieb:
falls wirklich ein g200c in 40nm mit dx10.1 käme, würden den sicher viele kaufen, denn der shrink würde deutliche taktsteigerungen zulassen, wodurch man vermutlich wieder an der 5870 vorbeiziehn könnte. .

durch bloße taktsteigerung 40% mehr leistung? bezweifle ich jetzt einfach mal^^


gruß
 
Nö, denn eine Tesla ist keine Grafikkarte. Das Ding taugt höchstens als ultimativer PhysX-Beschleuniger... ein Must-Have für alle Cryostasis-Zocker ;-)
Oh je, ist es so schwer zu verstehen? Der Chip wird der gleiche sein, nur die 6GB Vram wirds in Consumer Karten wahrscheinlich nicht geben. Die extreme Rohleistung kann also für cGPU(Tesla) oder für Games(GTX 380) verwendet werden je nach Wunsch. Und weil es einfach ausgedrückt Unified Shader 2.0(also noch flexiblere Shader bzw. Rohleistung) sind, und derer gleich doppelt so viele kann man mit einer Leistungsexplosion rechnen. Soviel kann man von den theoretischen Daten schon mal ableiten. Jetzt brauchen wir nur noch Tests die das bestätigen, aber das ist nur noch eine Frage der Zeit, die wohlgemerkt für ATI läuft...

was laberst du da eigentlich für ne scheiße? erstens sind noch keine specs vom G300 bekannt, und zweitens sagen die specrs alleine recht wenig. und es wird in der spieleleistung aller wahrschienlichkeit nach keinen quantensprung geben,weils wieder nur ein aufgebohrter G80 ist.
Zitat:
Es ist eine komplett neue Architektur das hat mit G80 nichts mehr zu tun. Ich bleib dabei -> Quantensprung in jedem Gebiet, Gaming, GPGPU, Effizienz, Flexibilität, einfach alles -> der Über Chip

Und das ohne Übertreibung!

@theorist
Gleicher Fehler, Flops 2er komplett verschiedener Architekturen verglichen...
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
Der Leistungssprung bzw. Innovationssprung vom G70 auf G80 ist gerade zu winzig im Vergleich mit GT200 auf Fermi. :eek:
Ähm nein, die Verwandschaft des Fermi mit dem G80 und dem GT200 ist doch immer noch mehr als offensichtlich. Vom G70 zum G80 erlebte man wirklich einen Architekturwechsel.
In meinen Augen gibt es drei GeForce-Generationen:
- GeForce 1 bis GeForce 4
- GeForce FX bis GeForce 7
- GeForce 8 bis heute (einschließlich Fermi)
 
Hat NV es denn mitllerweile auf die gleiche Packdichte wie ATi gebracht? Falls nicht wird das Monster wohl locker doppelt so groß wie Cypress. Dazu dickes SI usw., das kann eigentlich nur wieder teuer werden.
Andererseits liest sich das ganze nach der ultimativen GPGPU-Karte.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben