News Offiziell: „Fermi“ a.k.a. GT300

Status
Für weitere Antworten geschlossen.
Ich hab nur lückenweise gelesen,aber ist schon klar die amd/ati hat ein tolles produkt fertig und nvidia kann jetzt nur noch mit solchen leistungstabellen zappeln
 
Lübke schrieb:
@johnieboy: damit wollte ich nur sagen, ich kann leider da nicht direkt drauf antworten sondern nur in diesem forum...

achso :D

Lübke schrieb:
das mit dem stromanschluss wurde hier auch schon bemerkt. mutmaßlich haben die ne atrappe hochgehalten... find ich nu nich so spannend aber da wird schon ziemlich viel reininterpretiert.

Hab nicht alle Posts gelesen, aber ich denke man kann daraus interpretieren das es derzeit nicht viele funktionsfähige Karten gibt, sonst müsste man nicht auf so ne Aktion zurückgreifen.

Was weitergedacht bedeutet das wir um entsprechende Karten im Handel kaufen zu können wies schon geschrieben wurde auf "mid to late Q1/10" warten müssen.

Lübke schrieb:
davon gleich rückschlüsse auf die yields zu ziehn, halte ich für etwas gewagt...

meine Signatur ist Programm :lol:;)
 
Dude-01 schrieb:
Wenn du genau hinguckst, siehst du, dass in dem PCB die Lüfterlöcher der GTX295 sind und außerdem wurden hinten einfach etwas abgesägt. Sehr schön an den halben Widerständen zu sehen:lol:
Da muss NV die Muffe aber übel gehen wenn sie so ein fake präsentieren müssen. Könnte doch was drann sein das der RV 900 schon in den Startlöchern steht bis der G300 kommt.:D
 
Dass Nvidia keinen Prototypen, sondern nur einen Haufen Schrott (etwas anderes kann ein abgesägtes PCB mMn nicht mehr sein) mit glänzendem Blech darüber zeigt, ist wirklich Schade.
 
So ich sag mal einfach meine Meinung ohne auch nur einen Post gelesen zu haben.:P

War ja klar, dass nVidia jetzt wenigstens mit Daten rausmuss um Kunden damit zu begeistern und sie so davon abzuhalten jetzt eine ATI zu kaufen.
Wenn sie schon sagen die größte Änderung seit dem G80, werden einige denken, dass der Leistungszuwachs ähnlich von 7900GTX auf 8800GTX ist.

Ich werde auf jeden Fall warten bis die nVidia raus sind. Wenn sie wirklich bedeutend schneller ist werden die ATI-Karten mitunter ein gutes Stück billiger.

Designtechnisch hat nVidia meiner Meinung nach schon gewonnen. :)
 
Hallo zusammen,

offenbar sind die Wahrsager wieder unterwegs, wenn ich mir manche Kommentare so durchlese.

Für mich ist in keiner Weise gesagt, daß der Neue Nvidia-Chip für Spiele ein solcher Überflieger wird. Dafür gab es nunmal in der Vergangenheit zu oft Beispiele, wo im Vorfeld auch ähnlich Chips nur aufgrund der Papierdaten hochgejubelt wurden, welche sich nach Erscheinen dann schon fast als reinrassige Papiertiger entpuppten.

Ich empfehle das Studium des Berichts auf www.heise.de hinsichtlich der Neuen Fermi-GPU:

http://www.heise.de/newsticker/GTC-Nvidia-Chef-zeigt-erste-Fermi-Grafikkarte-Update--/meldung/146166

In jedem Fall sind für mich Persönlich 300 Watt zuviel des Guten. Aber vielleicht liegt das ja auch daran, daß ich meinen Strom selbst bezahlen muß.

Augenfällig ist auch, daß Nvidia wohl in diesem Jahr nicht mehr in die Gänge kommen wird mit der GPU. Womöglich stimmt es auch, was von Quellen aus der Hardwarebranche zu hören ist, in diesen Kreisen wird gemunkelt, daß ATI einen Vorsprung von ca. einem halben Jahr hat im Spielebereich wohlgemerkt.

Irgendwie erinnert mich diese ganze Sache an Ende 2006, als der G80 von Nvidia veröffentlicht wurde und ATI auch alle möglichen Werbemaßnahmen ergriff, damit Spieler auch ihre Neue Karte warten.

So long.....
 
Die Radeon 5870 reicht sowas von aus für alle Spiele... bisher gibt es kein besser aussehendes Spiel als Crysis und das ist ja schon ewig auf dem Markt. Es ist nicht mehr so wie früher als man aller halbe Jahre eine noch bessere Engine serviert bekam, die Entwicklung geht langsamer voran und somit ist ein ständiges Aufrüsten sinnlos. Ich kann getrost auf die Fermi verzichten, die Radeon 5870 hat mich dank zahlreicher Reviews komplett überzeugt.
 
Zuletzt bearbeitet:
johnieboy schrieb:
war grad im HW-Luxx Forum und dort haben ein paar User etwas zu der von Nvidia präsentierten Karte herausgefunden.

Jen-Hsun Huang hat keinen Prototypen des Fermi gezeigt!

aber seht selbst (mit großem Beweisbild):

http://www.hardwareluxx.de/community/showpost.php?p=12991799&postcount=1770



Haben wohl nicht genug Karten um einen echten Fermi zu zeigen.
Wie war das nochmal mit der 2% Yieldrate? :lol:

Wow das ist mal was lustiges :D
Die Stromanschlüsse sehen mal geil gefaket aus ^^ Man siehe an den Lötstellen des PCBs...
 
Motkachler schrieb:
Da muss NV die Muffe aber übel gehen wenn sie so ein fake präsentieren müssen. Könnte doch was drann sein das der RV 900 schon in den Startlöchern steht bis der G300 kommt.:D

Und genau das ist auch meine Vermutung! Es gab ja schon länger die Gerüchte das dieser Chip ihnen richtig Probleme bereitet. Was also soll man machen? Man muss den Leuten ja mal irgendwas zeigen, wenn die Konkurenz schon ihre neue Grafikkartengeneration draußen hat.
Nicht falsch verstehen, ich glaube Nvidia hat hier ein richtig gutes Konkurenzprodukt in den Startlöchern, allerdings bisher nur theoretisch;)
 
@0x4A6F686E: das ist ein dummy: originaler kühler auf eben einem ausgedienten pcb. besser als n holzbrett zu nehmen ;)
und dass das öfters mal gemacht wird (auch bei ati und anderen) hab ich ja schon geschrieben. warum n wertfolles original mit sich rumschleppen, wenn die karte noch unter nda steht, nur um die optik zu präsentieren? das ist das praktische an den heutigen monsterkühlern :D

allerdings revidiert das wieder die annahme, die g300 hätte einen 8-poligen und einen 6-poligen stromanschluss. demnach käme alles in frage...
 
@Kasmopaya:

Toll, dass du so schön zitieren und verlinken kannst. Trotzdem sagen diese Zitate nichts aus.

...flexible Nutzbarkeit und hohe Auslastung der 512 Shader-ALUs.
Flexibel nicht flexiblere. Dass eine hohe Auslastung Sinn des Unternehmens ist, dürfte wohl jedem klar sein.

...stattet Nvidia jede SIMD-Einheit in Fermi mit zwei sogenannten Warp-Schedulern und Instruktions-Dispatchern aus.
Oh, tolle Fremdwörter, die eh nur Nvidia-Gebrabbel sind. Nutzt ATI/AMD genauso.


ComputerBase schrieb:
Mit Daten versorgt werden die 320 5D-Shadereinheiten (wie von ATi gewohnt) durch den so genannten „Ultra-Threaded Dispatch Processor“, dessen Hauptaufgabe darin besteht, keine „Blasen“ (also nicht genutzte Rechenkapazitäten) in den 5D-Shadereinheiten entstehen zu lassen.

Quelle: Test: ATi Radeon HD 5870: Stream-Processing-Units



Richard Huddy schrieb:
Insgesamt würde ich sagen, dass unser Haupt-Scheduler, der die Arbeit auf die ALUs verteilt und die Ressourcen den einzelnen Arbeitsschritten zuweist, die Komponente ist, welche die größte Überholung erforderte. Insgesamt ist er mehr als doppelt so komplex wie in vorherigen Generationen.

Quelle: PCGH 09/2009


Ersetze "Haupt-" durch "Warp-" und schon ist man flexibler und effizienter als der Konkurrent.
 
Hab nicht alle Posts gelesen, aber ich denke man kann daraus interpretieren das es derzeit nicht viele funktionsfähige Karten gibt, sonst müsste man nicht auf so ne Aktion zurückgreifen.

Ist wie bei der Voodoo 5 6000, da wurde auch die "Quadratische" Version gezeigt, auf der einfach ein haufen Teile so aufgelötet wurde so das es nach "Grafikkarte" aussieht.

proto_v5_pb.jpg


Das hübsche Ding ist ein VSA-100 Prototyp. Hässlich gell? :D
Man beachte die Länge, kommt locker an ne GTX 285 ran.

Solche dinger nennt man "Mechanical Samples", diese Karte da wird genauso ein Teil sein, daher auch die Abdeckung der GPU Lötstellen, man würde ja die GT200 Pinkompatibilität feststellen. :D

Ich nehme mal an, das die funktionierenden Fermi-Karten noch auf solchen potthässlichen und übergroßen Engineering-Boards kleben die man keinem normalen Menschen antun will und Strom saufen wie ein Alkoholiker sein Bier runterspült.
Vor 2010 wird das nix mit Massenverfügbarkeit.
 
Zuletzt bearbeitet:
blöd is nur wenn ich was als quasi fertig vorstelle (um vielleicht auch Käufer von anderen Marken zu gewinnen bzw. von ihrem nächsten Kauf abzuhalten) und sich dann rausstellt das zumindest hier nix fertiges gezeigt wurde...

bin ja mal gespannt wann und welche Infos als nächstes kommen (aber echt cool was nicht alles nur über Bilder rausgefunden wird)
 
NoD.sunrise schrieb:
Ich wär mir da erstmal nicht so sicher dass die GT300 die ATI Karten überhaupt schlagen in sachen 3D performance - mir scheint einiges der chipfläche für GPGPU drauf zu gehen, Tesselation ist nur in software umgesetzt und in sachen DX11 hat man noch keinerlei erfahrung, während ATI das großteils schon seit den hd 2000 integriert hatte.

Also mal abwarten was die Karte dann wirklich bringt in ersten Games die DX11 voll ausnutzen.

Ich zweifel ja noch an dem generellen konzept des gt300, auf der einen seite hat man die hd5000 und auf der anderen Seite droht dann Larrabee - dass sie da mal nicht zwischen drin untergehen mit ihrem zwischending...


also ich kann mich erinnern gelesen zu haben dass n-vidia "leute"
gesagt hätten die 5800 serie steckt der gt300 locker in die tasche
ob das stimmt weiß ich nicht vorstellen kann ichs mir schon gut
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben