Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Offiziell: „Fermi“ a.k.a. GT300
- Ersteller Volker
- Erstellt am
- Zur News: Offiziell: „Fermi“ a.k.a. GT300
- Status
- Für weitere Antworten geschlossen.
mapel110
Lieutenant
- Registriert
- März 2003
- Beiträge
- 990
Anandtech hat 467mm² geschrieben.feldwebel-Chief schrieb:Habe Gelesen das die DIE size ~ 529m² (23*23mm) liegen soll
Ist also kleiner als GTX 285 aka GT200.
Die Quadro-Karten waren seit jeher die selben Chips wie die Consumer-Varianten. Für die Quadros gibts eben noch spezielle Treiber, die für CAD und ähnliche Dinge spezialisiert sind. Und diese speziellen Treiber sind der Grund, warum Quadro-Karten so teuer sind. Die Entwicklung dieser Treiber muss bezahlt werden. Und natürlich die Unterstützung der Profis in diesem Bereich kostet auch Geld.Bullet Tooth schrieb:nVidia hatte zur Vorstellung der Hd5870 gesagt das man in Zukunft nicht so viel Gaming Power braucht sondern CudaLeistung und PhysiX. Deswegen sehe ich den GT300 eher als eine Quadro mit Gameingeigenschaften. Die GPu kann man dann wahlweise zur Quadro oder Geforce verbauen. Und da die GPU dann beides vereint werden auch nicht alle Transistoren fürs Dx11 oder OpenGL berechnen/rendern gebraucht werden dazu kommen L1 und L2 Cache. Die Topkarte wird aber trotzdem ein Hd5870CF in Angriff nehmen. Ein Blamage wird es diesmal von nVidia nicht geben.
Zuletzt bearbeitet:
Ghostwalker
Lieutenant
- Registriert
- Dez. 2004
- Beiträge
- 847
Nun ja. War es nicht so das Nvidia ganz langsam unter Zugzwang gerät was CPU´s angeht. AMD / ATI sind ein sind eine gute Kombi und Intel bringt wohl bald die Larrabee GPU raus. Der angeschmierte dritte ist in diesem fall wohl Nvidia. Denke mal Sie werden auch versuchen mehr und mehr GPU und CPU zu kombinieren. Wäre zumindest meine Vermutung.
Hört sich auf jeden fall nach einer verdammten Menge Power an.
Hört sich auf jeden fall nach einer verdammten Menge Power an.
R
Respekt
Gast
@Wiesi21:
Dafür sahnt NVidia dann auf einem anderen Markt ab. Nämlich auf dem industriellen Zweig.
Dafür sahnt NVidia dann auf einem anderen Markt ab. Nämlich auf dem industriellen Zweig.
Zwirbelkatz
Fleet Admiral
- Registriert
- Juni 2006
- Beiträge
- 44.443
Naja, die HD5850 für 150 Euro die es dann bis dahin gibt reicht für meine Ansprüche aus und gibt sich in eigentlich keinem Bereich die Blöße. Es kommt halt doch auf das Gesamtpaket an und dazu stehe ich, selbst wenn die Leute noch hundert Mal den Bogen von "Stromverbrauch" auf "ÖKo" schlagen
Jeder wie er kann. Aber beschwert euch nicht, wenn die Kiste beim Arbeiten dröhnt und im Hochsommer gnadenlos heizt.
Wenn der Fermi so monströs wird wie zu vermuten ist, dann hat Nvidia aus dem G200 wenig gelernt. Das ist bloß eine Meinung, jeder möge bitte kaufen, was er für richtig empfindet. Von jedwedem Hersteller.
Jeder wie er kann. Aber beschwert euch nicht, wenn die Kiste beim Arbeiten dröhnt und im Hochsommer gnadenlos heizt.
Wenn der Fermi so monströs wird wie zu vermuten ist, dann hat Nvidia aus dem G200 wenig gelernt. Das ist bloß eine Meinung, jeder möge bitte kaufen, was er für richtig empfindet. Von jedwedem Hersteller.
feldwebel-Chief
Lieutenant
- Registriert
- Jan. 2007
- Beiträge
- 526
Respekt schrieb:@feldwebel-Chief:
Wo haste das gelesen? Link?
Ne sry haben das durch zufall beim googln gelesen ... keine ahnung was ich da nochmal eingegeben hatte
Motkachler
Lt. Commander
- Registriert
- Sep. 2004
- Beiträge
- 1.563
Das klingt für mich wie ein Rennwgen mit einem 20 Tonnen anhänger.
Zum Rennfahren (Zocken) wenig efektiv.
Zum Rennfahren (Zocken) wenig efektiv.
Bullet Tooth
Commander
- Registriert
- Mai 2008
- Beiträge
- 2.975
Schaffe89 schrieb:Glaube ich nicht. Und wenns funktionieren würde, dann wäre der Preis für eine Quadro Karte utopisch. Bei denganzen Entwicklungsgeldern die Nvidia jetzt schon verprasst hat, muss in der Hinsicht natürlich was brachiales exclusives her, für 10000 Euro das Stück?^^
So ungefähr es werden die Monster Produziert und je nachdem welche Qualitätskontrolle sie besteht (defekter Cache L2) wird daraus eine GTX380 oder wenn sie noch schlechter defekte Shader zur GTX360 wird. Somit kann man einen Die produzieren und die 40% sehr guten als Quadro oder so verticken und die 40% nicht so guten mit defektem Cache werden als GTX380/GTX360 verkauft.
@mapel110: Genau nur bisher waren es Geforce Karten mit Profieigenschaften diesmal ist eher umgekehrt die Profieigenschaften der Karte überwiegen deswegen Quadro mit Gamingeigenschaften.
Zuletzt bearbeitet:
milamber!
Commander
- Registriert
- Dez. 2004
- Beiträge
- 2.260
casul schrieb:Nvidia wird ati in der Pfeife rauchen wenn es um die Leistung geht
Ach .. und das erkennst du woran? An Daten die Hauptsächlich HPC betreffen, ohne zu wissen was du mit den Zahlen überhaupt anfangen sollst?
Wiesi21 schrieb:tja, sie haben anscheinend diesmal den Hauptaugenmerk auf GPGPU gelegt, anders lassen sich die implementierten Features nicht erklären. ...
Der Großteil der Features war auch schon war auch schon im GT200 implementiert. GPGPU Karten für die Industrie sind Grundlegend nichts neues, in Namen sind das Tesla bei Nvidia und noch älter Firestream bei ATi.
Respekt schrieb:Für mich klingt dieser Chip nach einem Rechenmonster erster Güte. Ich glaube nicht dass NVidia das Hauptaugenmerk auf die Gamerszene geworfen hat.
Das Teil wird ne richtige Datenkreissäge! Gut das NVidia das vor macht. Dann können die Konkurrenten es besser nachmachen.
Ja, die zahlen klingen alle sehr toll, und sind sicher auch nicht schlecht, nur für uns hier - und auch für dich - uninteressant. Und die Konkurenz in Form von ATi muß es nicht "besser nachmachen", sie haben es in vielen Dingen schon besser vorgemacht.
Arbiter Elite schrieb:Auch wenn sie mehr Know How als ATI besitzen,
Haben sie das? Wie kommst du darauf? Weil in Ihrer Pressemitteilung kein Wort von ATi gefallen ist, und du jetzt daher annimmst, so etwas gäbe es nur von Nvidia?
Zanza schrieb:ich deneke die Karte schon mehr leistung bitten als die von der ATI wenn ich mir die daten so ansehe.
Denkst du? Mit dem Großteil er Daten kannst du doch überhaupt nichts anfangen. Nur mal als Beispiel; sie schreiben vom 8facher Leistung bezüglich Double-Precision Floating Point , gegenüber der GT200 - klingt natürlich voll toll. Aber wie schon von Iscaran erwähnte, in dem er auf eine - weniger einer Werbetrommel gleichende - News auf Heise verwies, wäre das bei dem Fermi eine Leistung von 630 GFlops, zu vorher 75 GFlops mit dem GT200.
ATi's letzte FireStream basierend auf den - der GT200 gegenübergestellten - 4870 leistete 240 GFlops, und die 5870 soll 540 GFlops bieten. Wobei das aber wie auch geschrieben wurde, alles schön geredete theoretische Zahlen sind.
Und bei all dem bitte nicht vergessen, das der Fermi mit ca 900.000 etwa 30% mehr Transistoren unter der Haube hat.
0xffffffff schrieb:Ich sehe die Ankündigung kritischer. Denn:
1.) Es ist viel von HPC die rede, weshalb ich glaube das die "normalen" GPUs allein aus Kostengründen doch abgespeckt erscheinen werden. Die "Ultramodelle" werden sicher sündhaft teuer werden.
2.) Laut Heise war der Tapeout erst im Juli so das wohl noch einige Monate ins Land vergehen werden bis NVidia ne halbwegs vernünftige Fertigung hat mit akzeptablen yield. Also gibt es die Karten wohl erst ungefähr ab Feb 2010.
Interessant auf jeden Fall, aber sehr hochgespielt. Es ist nicht brachial mehr als ATI derzeit hat, und dafür das NVidia länger entwickeln konnte durchaus ok. Aber marketingtechnisch natürlich absolut dramatisch hochstilisiert als sei es ein Weltwunder.
Mein Reden.
Von daher, Leute, kommt mal bitte von Wolke 7 herunter; diese Vorstellung war überhaupt nicht für Consumer vorgesehen, als steckt wieder die Hände in die Tasche und spielt nicht 'Vier gegen Willi' auf Informationen, mit denen überhaupt nichts über die Grafikleistung ausgesagt werden kann.
Sicher werden sie mit dem GT300 (Fermi) nen heißes Eisen aus dem Feuer holen, und im HPC bereich auch das ein oder andere neue bringen (ECC, Cache, C++ Unterstützung mit Einschränkungen, ATi hat bisher afaik C ähnliches über Brooks geboten), aber weder wurde hier ihre komplette Gamer Zielrichtung verworfen, noch haben sie hier gegenüber ATi das Goldene Kalb erfunden.
Das betreffend wäre es schön, wenn in solchen News auch ein die Konkurenz gegeüber gestellt wird, wie in der c't News, so entfacht der Artikel nämlich genau den im letzten Satz erwähnten anschein; Nvidia beschenkt uns mit dem Golde Kalb, wo es weit und breit nichts vergleichbares gibt. Das heizt die aktuellen Nvidia <> ATi streitereien ja auch nur wieder an.
Zuletzt bearbeitet:
R
Respekt
Gast
milamber! schrieb:Ja, die zahlen klingen alle sehr toll, und sind sicher auch nicht schlecht, nur für uns hier - und auch für dich - uninteressant. Und die Konkurenz in Form von ATi muß es nicht "besser nachmachen", sie haben es in vielen Dingen schon besser vorgemacht.
Klar, hab ich ja nicht behauptet. Ich bin mir aber sehr sicher das NVidia mit diesem Chip den industriellen Zweig ganz schön aufmischen kann.
Wie so oft gesagt: Abwarten und Tee trinken. Bin auch gespannt was ATI in einem halben Jahr noch zeigen wird. Cypress wird sicher auch am Profimarkt bei den FirePro-Karten einen draufmachen.
Reaping_Ant
Ensign
- Registriert
- März 2008
- Beiträge
- 251
Turbostaat schrieb:Irgendwie muss ja die fehlende Tessalation Einheit für DX 11 ausgeglichen werden.
Wo kommt das denn her? Bisher gibt es (außer den gewohnt unparteiischen Äußerungen eines Herrn Dermerjian) keinerlei gesicherten Informationen über die Grafikfähigkeiten des Chips. Im Zusammenhang mit der heutigen Präsentation ist DX11 einfach komplett irrelevant und wurde daher auch mit keinem Wort erwähnt.
Im Hinblick auf die Grafikperformance kann man jetzt sicherlich anfangen mit FLOPS um sich zu werfen, was aber auch bestenfalls eine ganz grobe Orientierung zulässt, selbst wenn man mit dem direkten Vorgänger GT200 (abzüglich MUL) vergleicht. Zu viel hat sich an der Architektur (z.B. der Größe und Aufteilung der Caches) selbst geändert.
Wie sich die 256 Load/Store Einheiten im Vergleich zu den bisherigen TMUs (sofern sie diese tatsächlich ersetzen) schlagen, ist ebenfalls völlig unklar, ebenso wie eventuelle Änderungen an den ROPs oder ob der Chip effizienter mit seiner Speicherbandbreite umgeht als seine Vorgänger. Diese drei Faktoren halte ich für wesentlich bedeutsamer, was die Gesamtperformance angeht, als die Implementierung des Tessellators.
Ich finde den Chip - rein technisch gesehen - jedenfalls um einiges interessanter und vielversprechender als den RV870. Ob sich damit auch vernünftige Grafikkarten bauen lassen wird sich zeigen.
feldwebel-Chief
Lieutenant
- Registriert
- Jan. 2007
- Beiträge
- 526
mapel110 schrieb:Anandtech hat 467mm² geschrieben.
Ist also kleiner als GTX 285 aka GT200.
GT285 ist mit dem GT200b bestückt und der ist 470m² groß der alte GT200 war/ist 576m² groß
Daher sieht nVidia eventuell eine Herstellung des GT200 Chips von 65nm auf 55nm, namentlich GT200b, hervor. Mit einer DIE-Größe von ca. 470mm² soll es dann möglich sein, aus einem Wafer theoretisch 120 Chips herzustellen.
Zitat von : Spielesuechtig.de
Demnach kommt das aber mit der Größe von 467m² nicht hin , dann müssten die pro Wafer ~120 statt 104 Chips herstellen.
Demnach ist die DIE größe höher als 500m².... denke ich mal.
Zwirbelkatz schrieb:Naja, die HD5850 für 150 Euro die es dann bis dahin gibt ....
das glaube ich nicht.. sie wird wohl eher auf's niveau einer 285 steigen, da DX11 vorteil. ausser NVIDIA bringt einen schnelleren G300 ableger zu gleichem preis.
thes33k
Lt. Commander
- Registriert
- Apr. 2008
- Beiträge
- 1.258
naja, spekulation, spekulation. solang keine handfesten benchmarks da sind, ist es quatsch sich über geschwindigkeiten zu unterhalten.
was man aber in meinen augen nicht vergessen darf: wie groß ist die marktgruppe für die hardware und wie lässt sich argumentieren, diese zu vergrößern? auch wenn auf jedem zweiten spiel "the way it's meant to be played" steht und ach so tolle physx effekte drin sind (siehe batman, mirror's edge, etc.), stellt sich die frage, ob der kunde daran überhaupt interessiert ist. in meinen augen ist physx reine spielerei, die man kostenlos dazu bekommt, wenn man nvidia kauft. bis auf enthusiasten wird sich wohl kaum einer ne nvidia aus dem grund einbauen, wenn man fürs gleiche geld ne schnellere ati bekommt. was tut man also? richtig, man versucht die zielgruppe zu vergrößern. schafft die gezeigte hardware das? ich bezweifle, dass sich irgendjemand ne gt300 zulegt, nur um damit gpu computing zu betreiben. der otto-normalo-gpu-käufer entscheidet nach leistung und geldbeutel, relativ selten nach außergewöhnlichen features (siehe matrox multi display oder auch ati eyefinity). nebenbei gibt es da eine weitere hürde: um gpu computing für die käufer interessant zu machen, muss software dafür vorhanden sein. schauen wir doch mal, was bis jetzt sich bei gpu computing durchgesetzt hat: 1. physx als nebenprodukt. 2. video-encoding/image manipulation. das aufgrund der qualität auch nur zum teil und das ist mit sicherheit auch kein typisches käufer szenario. wenn jetzt andere teile von spielen (z.B. KI) oder allgemeinere software wie office oder das betriebssystem selber diese features nutzen würden, wäre es gut. ich bezweifle aber, dass sich irgendnen entwickler hinsetzt (stand auch schon auf seite 1, glaubsch) und für unterschiedliche apis programmiert. dann wäre z.b. eine KI für cpu (sofern man nicht nur dx11 haben will), für gpu nvidia und gpu dx11 notwendig.
was mich zu meinem fazit bringt: eigentlich ist dieses ganze "mehr mehr mehr" totaler unsinn, wenn aktuelle software nicht die vorhandenen ressourcen ordentlich ausnutzt. microsoft hat mit helios und barrelfish in den letzten tagen gezeigt, dass sich schon mit vorhander hardware bei simplen aufgaben bis zu 39% mehr leistung herauskitzeln lassen (und dabei gings nur um nen eingeschränkten test mit nem mailserver).
was man aber in meinen augen nicht vergessen darf: wie groß ist die marktgruppe für die hardware und wie lässt sich argumentieren, diese zu vergrößern? auch wenn auf jedem zweiten spiel "the way it's meant to be played" steht und ach so tolle physx effekte drin sind (siehe batman, mirror's edge, etc.), stellt sich die frage, ob der kunde daran überhaupt interessiert ist. in meinen augen ist physx reine spielerei, die man kostenlos dazu bekommt, wenn man nvidia kauft. bis auf enthusiasten wird sich wohl kaum einer ne nvidia aus dem grund einbauen, wenn man fürs gleiche geld ne schnellere ati bekommt. was tut man also? richtig, man versucht die zielgruppe zu vergrößern. schafft die gezeigte hardware das? ich bezweifle, dass sich irgendjemand ne gt300 zulegt, nur um damit gpu computing zu betreiben. der otto-normalo-gpu-käufer entscheidet nach leistung und geldbeutel, relativ selten nach außergewöhnlichen features (siehe matrox multi display oder auch ati eyefinity). nebenbei gibt es da eine weitere hürde: um gpu computing für die käufer interessant zu machen, muss software dafür vorhanden sein. schauen wir doch mal, was bis jetzt sich bei gpu computing durchgesetzt hat: 1. physx als nebenprodukt. 2. video-encoding/image manipulation. das aufgrund der qualität auch nur zum teil und das ist mit sicherheit auch kein typisches käufer szenario. wenn jetzt andere teile von spielen (z.B. KI) oder allgemeinere software wie office oder das betriebssystem selber diese features nutzen würden, wäre es gut. ich bezweifle aber, dass sich irgendnen entwickler hinsetzt (stand auch schon auf seite 1, glaubsch) und für unterschiedliche apis programmiert. dann wäre z.b. eine KI für cpu (sofern man nicht nur dx11 haben will), für gpu nvidia und gpu dx11 notwendig.
was mich zu meinem fazit bringt: eigentlich ist dieses ganze "mehr mehr mehr" totaler unsinn, wenn aktuelle software nicht die vorhandenen ressourcen ordentlich ausnutzt. microsoft hat mit helios und barrelfish in den letzten tagen gezeigt, dass sich schon mit vorhander hardware bei simplen aufgaben bis zu 39% mehr leistung herauskitzeln lassen (und dabei gings nur um nen eingeschränkten test mit nem mailserver).
Tamahagane
Vice Admiral
- Registriert
- Jan. 2008
- Beiträge
- 6.626
wamp schrieb:das glaube ich nicht.. sie wird wohl eher auf's niveau einer 285 steigen, da DX11 vorteil. ausser NVIDIA bringt einen schnelleren G300 ableger zu gleichem preis.
Kompletter quatsch... steigen sicher nicht.
@Screemer:
Sorry - war mein Fehler dachte irgendwie du würdest die Aussage der fehlenden Tesselators auf die HD serien beziehen.
Habs auch oben gedited ^^.
und was sagt mir dein link jetzt? das ati seit dem r600/xenon tesselatoren in hardware verbaut? das ist mir bekannt. ich rede über den fermi.
Sorry - war mein Fehler dachte irgendwie du würdest die Aussage der fehlenden Tesselators auf die HD serien beziehen.
Habs auch oben gedited ^^.
- Status
- Für weitere Antworten geschlossen.