News Offiziell: „Fermi“ a.k.a. GT300

Status
Für weitere Antworten geschlossen.
Bin mal gespannt, ob das auch so ein Meilenstein wie damals der G80 wird. Die Zahlen sehen vielversprechend aus...

Auch der Stromverbrauch wird interessant, schließlich hat das Testmuster der Radeon 5870 bei der cT nur gemessene 19 Watt im Desktopbetrieb aufgenommen. Die GTX 285 haben die mit 30 Watt angegeben. Steht auf Seite 20 rechte Innenspalte (für die, die es nur kurz nachlesen wollen).
 
ich denke die grakas werden so gegeneinander treten!

HD 5870 gegen GTX360
HD 5890 gegen GTX380
HD 5850X2 gegen GTX375
HD 5870X2 gegen GTX385 oder GTX 395

denke ich:D
 
Ich bin ein wenig überfordert, ATi bringt 1600 Shader Einheiten, die in, wenn ich richtig lese, 80 Clustern a 80 ALUs orhanisiert sind. Pro Cluster wird eine doppelt genaue dedizierte Fließkommaeinheit verwendet. GPGPU ist für mich ein zukunftsträchtiges Unterfangen im Bereich der wissenschaftlichen Anwendungen, wobei a priori in erster Linie die DP Recheneinheiten für mich/uns wichtig sind.
Wenn ich diese Vorabinfo zum GT300 lese, interpretiere ich das so, daß theoretisch nun bei nVidia 512 DP-Einheiten einsetzbar wären. Die Frage ist nun, wie weit man diese Einheiten parallel und unabhängig verwenden können wird. Wenn es wirklich 512 unabhängige 64 Bit Rechenwerke wären und auf AMDs Seite stünden diesen eben nur 80 gegenüber, wäre das schon ein Punkt für nVidia, aber vielleicht klärt mich ein Kundiger hier mal auf, da ich mich mit der Organisation der DP-Einheiten weder bei nVidia noch ATi auskenne.

Ein weiterer großer Pluspunkt ist die offizielle OpenCL-Unterstützung durch nVidia. Ich hoffe, daß in naher Zukunft auch freie Xorg-Treiber von einer OpenCL-Unterstützung profitieren können werden, um Code auf der GPU ausführen zu können. Derzeit empfinde ich die Bindung an CUDA über Linux-BLOBs als Belastung. Aber nVidia scheint auch hier etwas zu tun - AMD/ATi tönte bislang nur, man wolle etwas tun. Ich bin gespannt, was die GT300 Karten 'können' werden ...
 
Ich weiß nicht, ob nVidia mit der starken Fokusierung auf GPGPU die richtige Entscheidung getroffen hat. Für den wissenschaftlichen Bereich ist so eine Karte natürlich sehr interessant und die Margen sind auch nicht zu verachten, aber dafür ist der Markt auch nicht gerade groß. Jetzt wird es darauf ankommen, wie gut sie als Gamingkarte funktioniert und vor allem, wieviel sie kosten wird, denn viele der zusätzlichen Features kosten Transistoren ohne dass sie für den Gamingbereich irgendwelchen Nutzen hätten (große Caches, ECC, Debugging-Unterstützung, C++ Support, ...)

Der native Support von C++ wundert mich sowieso, denn ich sehe nicht die Vorteile, die das bringen soll, außer vielleicht das man die Sprache als Entwickler gut kennt. Der Haken dabei ist allerdings, dass sich die GPU-Architektur trotz gewisser Angleichungen immer noch sehr von CPUs unterscheidet, d.h. normale (für CPUs ausgelegte) C++ Programme kann man dann zwar auf der GPU ausführen, die Performance wird aber extrem schlecht sein. Programme für GPUs müssen von Grund auf anders angelegt werden als Programme für CPUs. Da stellt sich mir die Frage, warum man dann überhaupt C++ für GPUs verwenden will, wenn man am Ende dann doch wieder alles neu implementieren muss.
 
Eisenfaust schrieb:
Ich bin ein wenig überfordert, ... aber vielleicht klärt mich ein Kundiger hier mal auf, da ich mich mit der Organisation der DP-Einheiten weder bei nVidia noch ATi auskenne.

Der Tesla-Nachfolger wird unter dem Namen Fermi mit einer Gleitkommapeformance (FMA, Fused Multiply-Add) aufwarten, die bei gleichem Takt um mehr als Faktor acht höher ist. Statt einer Duuble-Precision-Einheit pro Stream-Multiprocessor (SM) sind es nun derer vier, wobei die Hardware von zwei mit Single Precision rechnenden Cores (ehemals Streaming Processor genannt) zusammengeschaltet werden. Ein Fermi-Chip enthält 16 SMs (zuvor 30), aber jeder SM enthält nun 32 Cores (früher waren es 8 SPs), sodass die Zahl der skalaren SP-Recheneinheiten auf 512 steigt (von 240 zuvor). Konkurrent ATI hat demgegenüber in der neuen RV8xx-Architektur 1600 einzelne SP-Recheneinheiten, die zu fünft zu 320 SIMD-Einheiten zusammengeschaltet sind. Bezogen auf doppeltgenaue FMA-Einheiten sind es jetzt bei Fermi 256 (Tesla: 30) gegenüber AMD/ATI mit 320.

Bei gleichem Takt wie die Tesla C1060 müsste die theoretische Spitzenleistung (FMA) bei 2 Teraflop/s (SP) und 630 GFlop/s (DP) liegen, gegenüber 933 GFlop/s (SP) und 75 GFlop/s (DP) der C1060 und 2,7 Teraflop/s (SP) sowie 544 GFlops/s (DP ) bei AMDs Radeon HD5870. Das sind aber zum Teil reichlich schöngerechnete theroretische Werte (mit drei Flops/SP/Takt bei Nvidia SP, inklusive der Special Function Units), die echte erzielbare SGEMM/DGEMM-Leistung liegt zumeist deutlich darunter.

Heise.de
 
Für den Fall das jemand von nVidia die 80% Fanboy-Posts überlesen und bis hier gekommen ist:

Bitte bitte gebt 2€ mehr für vernünftige (=leise) Lüfter aus!

Bloß keine mickrigen Turbo-Schaufler - das nervt! So schwierig kann das ja nicht sein...
 
Paladin2 schrieb:
Für den Fall das jemand von nVidia die 80% Fanboy-Posts überlesen und bis hier gekommen ist:
Bitte bitte gebt 2€ mehr für vernünftige (=leise) Lüfter aus!
Bloß keine mickrigen Turbo-Schaufler - das nervt! So schwierig kann das ja nicht sein...


doch es ist schwer. dann hätte wir auch kein arctic usw hersteller und ein paar arbeitslose mehr
Ergänzung ()

GodCast schrieb:
@Masko

d.h. also, dass Nvidia keine DX11 Mittelklasse haben wird?

nee das meine ich nicht. sicherkommt noch eine mittelklasse. das war jetzt nur ein beispiel
 
Da rüstet sich jemand gegen den Larrabee!
Tja, jetzt heisst's warm anziehen Intel, deine "voll programmierbare" GPU wird kein leeres Feld betreten..
 
Wo bleibt bloß mein lieblings Nörgelrator ;)

Die Werte sehen auf jeden Fall interessant aus, aber ohne bekannten Takt, oder irgendwelcher offiziellen Leistungsnachweise von Nvidia, kann man weiterhin nichts anderes machen, als im Dunkeln zu tappen.
 
feldwebel-Chief schrieb:
GT285 ist mit dem GT200b bestückt und der ist 470m² groß der alte GT200 war/ist 576m² groß



Demnach kommt das aber mit der Größe von 467m² nicht hin , dann müssten die pro Wafer ~120 statt 104 Chips herstellen.

Demnach ist die DIE größe höher als 500m².... denke ich mal.

Bei angenommenen 470mm² für den GT200b und einer Chipzahl pro Wafer von 120 könnte man es ja entsprechend hochrechnen, die 120 Chips benötigen somit 56400mm² nimmt man diese Fläche und teilt sie nun durch die gegebenen 104 Chips so erhält man 542mm².

Das Problem an der Sache sind nun allerdings solch Unbekannte wie verschnitt und unnützbare Bereiche. Fakt ist, dass ein 300mm Wafer eine Oberfläche von 70685mm² bietet was wiederum zu einer errechneten Chipgröße bei 104 Chips/Wafer von 679mm² führen würde (was wohl etwas zu groß sein dürfte)

Das Nvidia die Größe des Chips gegenüber dem GT200b noch verkleinern kann, halte ich nur für schwer realisierbar. Der GT200 kam mit 576mm² daher von daher erscheint ein Wert im Bereich von 542 - 679mm² durchaus realistisch.
 
Reaping_Ant schrieb:
Wo kommt das denn her? Bisher gibt es (außer den gewohnt unparteiischen Äußerungen eines Herrn Dermerjian) keinerlei gesicherten Informationen über die Grafikfähigkeiten des Chips.
sollte die mainstream-variante des chips genau so aufgebaut sein wie der fermi, was ja schwer anzunehmen ist, dann gibt es keine feature-spezifische hardware. eine tesselation-einheit eben auch nicht. tesselation müsste also über shader umgesetzt werden und keine sau weiß wie performant/effizient das möglich ist.

Respekt schrieb:
Man hört auch gut raus, wo NV hinsteuert.

seh ich auch so. vor allem der letzte satz ist vom marketing-gewäsch am anfang ausschlaggebend.
Andy Keane schrieb:
this gpu promises to be the next engine of science. so we can now cover the entire spectrum of scientific applications. so we have more applications, more developers driving into new markets.
 
Zuletzt bearbeitet:
... auf den ersten Blick dürften Nvidias Freunde an den 4 Benchmark-Folien ihre helle Freude haben!

Doch wenn man bedenkt, dass jedwede Angabe zu Leistungs und Spiele-Performance fehlt, fragt man sich unwillkürlich, mit welcher Art von Vodoo-Zauber sich die meisten Kommentatoren hier wohl angesteckt haben ... :freak:
 
Klar, ATI hat bei 2,15 Mio Transistoren 334 mm², da muss nvidia mit 3 Mio Transistoren bei über 500mm² liegen? Leute Leute....

467mm² sind sehr realistisch.
 
bei der PGHW gibts ein Bild einer GT300 Karte, die schaut größer als eine GTX285 aus, zumindest wirkt sie breit
 
Zuletzt bearbeitet:
Ich denke Nvidia wird schon eine passende Antwort haben auf die 5000er Serie von ATI,wobei ich aber stark vermute,das diesmal ATI die Nase vorne haben wird,da die 5850 zu einem sehr attraktiven Einstiegspreis von 250€ angeboten wird.Ich denke das die Kalifornier ihr neues Flagschiff 50 bis 100€ teurer anbieten werden.(Wobei wohl noch nicht mal klar ist wie die neue Mittelklasse benannt wird.Tippe aber auch auf GTX 360)

Einen Preis Leistungkrieg wird es sicherlich nicht geben,denn wer sich in der Vergangenheit eine Hochleistungs Nvidia Graka gekauft hat der sollte eigentlich wissen,was ihn preislich erwartet.
Ich hör schon jetzt das geheule einiger Kiddies hier in den Foren.Neue Hardware kostet eben mehr.Ich muss nicht gleich wie noch vor einigen Jahren immer das neueste vom neuen haben.
Bis diese Karten dann auch ausgereitzt werden vergehen noch einige Monate.Und nach ca einem halben Jahr auf dem Markt werden die neuen Nvidias dann auch für meinen Geldbeutel in erträgliche Preisregionen gefallen sein.

Wie gesagt,alles nur rein spekulative Vermutungen meinerseits,aber vieleicht behalte ich Recht.

Greetz!
 
hier ist ein Bild einer GT300 Karte (Quelle PCGHW)
 

Anhänge

  • Nvidia Fermi.JPG
    Nvidia Fermi.JPG
    8,2 KB · Aufrufe: 692
Status
Für weitere Antworten geschlossen.
Zurück
Oben