News Offiziell: „Fermi“ a.k.a. GT300

Status
Für weitere Antworten geschlossen.
@Steve81:
Ich erinnere an die ATI-Probleme mit GTA4, Need For Speed Shift, Anno 1404. Alles Zufall, dass Nvidia davon selten berührt ist? Vielleicht zahlt Nvidia auch Geld, dass ATI Kunden erstmal dumm aus der Wäsche schauen?

ja genau, ist ja auch sehr viel logischer, dass ein unternehmen milliarden von dollars bezahlt und einen riesen skandal und rechtliche konsequenzen riskiert für ein paar kleine probleme bei einem mitbewerber, die 95% der kunden nichteinmal mitbekommen, als dass ati seine treiber nicht so schnell auf die drei spiele optimiert hatte :rolleyes:
shice auf logik, hauptsache bashen -.-
 
MountWalker schrieb:
@ "GPGPU nutzt dem Gamer nichts"

Das ist teilweise Quatsch, denn in den kommenden (5-10) Jahren werden wir ein Revival von "Software-Renderern" erleben. Rasterisierung läuft ihrem Ende entgegen, weil man für mehr Qualität immer unverhältnismäßiger mehr Leistung verbraucht. (wenn man berücksichtigt, dass hübsche Grafik sehr viel mehr als nur verkleisterte Texturen ist) Das bedeutet eben, in den nächsten 5-10 Jahren werden die ganzen Fixed-Function-ROPs zu einer reinen Alibi-Technik für bestehende, dh. alte, Benchmarks und Schwanzlängenvergleiche verkommen, während sich die Zukunft der Echtzeit-Grafik (siehe id tech 6 Voxel Raycasting!) im GPGPU-Bereich abspielen wird. Double-Precision braucht man dafür vermutlich trotzdem nicht, aber volle C++ Unterstützung kann schon für den Engine-Programmierer nützlich sein. Zumal echte Physik, die nicht nur optisches Schmankerl ist, sondern rückwirkt, fürs Spiel auch wichtig sein kann. Ich freu mich jedenfalls, dass die wichtigste Spielerkomponente vom Füllratenschwanzvergleich wegkommt und lernt mehr zu machen, als Texturen zu kleistern - denn auch in Spielen ist Texturen kleistern nicht alles.

Das ist schön nur kauf ich mir jetzt keine Karte für in 5-10 Jahren! :freak:
 
Hä moment, wenn nicht Gamer für was denn dann?
Kann mir einer erklären für welche Zwecke sie sich gut eignen sollte?
 
Aus Gamersicht seh ich nicht was das bringen soll zur Zeit. Die Spieler sind zwar anscheinend nicht mehr Hauptzielgruppe aber finanzieren sollen sie schön das ganze. Wozu brauch ich einen Superchip den ich eh nicht nutze mit dem ich dann auch spielen kann?
 
Zuletzt bearbeitet:
Artikel-Update: Bei bit-tech.net gibt es erste Board-Shots einer Tesla-Karte, die sich jedoch von den Desktop-Varianten nicht wesentlich unterschieden dürfte. Demnach verfügt die Karte über einen 8-Pin-Stromanschluss sowie einen nicht im Bild sichtbaren 6-Pin-Stromstecker an der Oberseite, der auf den beiden Bildern von PCPPop zu erkennen ist.

[Bilder: Zum Betrachten bitte den Artikel aufrufen.]
 
wahrscheinlich läufts jetzt darauf hinaus,dass der Fermi minimal schneller als cypress ist,aber ein haufen mehr kostet,weil er diese ganzen GPGPU einheiten hat, mit denen die wenigsten etwas anfangen können.


gruß
 
bezüglich Stromverbrauch: Habt ihr euch bei der PCGH mal das Galeriebild Nr. 36 angeschaut? Wenn mich meine "altersschwachen Augen" nicht täuschen, sitzt da oben drauf noch ein 6-Pin-Stecker. Alles andere hätte mich bei der Premiumvariante des Chips wirklich gewundert. Bei den unteren Ablegern werden sie wohl hoffentlich mit einem Stecker auskommen.

edit: Volker war schneller ;-)
 
Steve81 schrieb:
... Früher oder später werden eigene Standards mit viel Subventionsgeld am Markt durchgeboxt - auch um Vergleiche/Benchmarks mit ATI dem Kunden unmöglich zu machen.
...
Na ganz bestimmt, deswegen auch C++ und OpenCL usw. - weil das Sachen sind, die man nur für Nvidia brauchen kann...

terraconz schrieb:
Das ist schön nur kauf ich mir jetzt keine Karte für in 5-10 Jahren! :freak:
Es sagt ja keiner, dass die ROP-Leistung des GT300 nun schlechter als bei ATI wäre, man bietet nur daneben auch schonmal die Hardware der zukunft an - ganz so, wie es AMD mit AMD64 getan hat.

P.S.
Der Hardware-Typ, auf dem etwas laufen soll, muss da sein , bevor ddas fertige Software-Produkt erscheddint, sonst ist die Software erbrechend "unoptimiert" - deswegen wurde bspw. Oblivion für XBox 360 auf PowerMacs getestet, bevor es Vorabversionen der XBox360 für Spieleentwickler gab. ;)
 
Zuletzt bearbeitet:
Steve81 schrieb:
Sehe nicht nur Vorteile in Nvidias Hardwarepolitik! Wenn sie diese langsam umlenken in Richtung "GPU als CPU" mag dies nach diversen Aussagen von (selbsternannten) "Experten" wegweisend sein, im Gamebereich bahnt sich die Gefahr einer 2-Klassengesellschaft an.

Während ATI weiterhin darauf setzt die Leistung in den gewohnten Bahnen zu steigern, brodelt Nvidia sein eigenes Süppchen. Früher oder später werden eigene Standards mit viel Subventionsgeld am Markt durchgeboxt - auch um Vergleiche/Benchmarks mit ATI dem Kunden unmöglich zu machen.

Die "Propaganda"-Einblendungen von Nvidia "The Way It's Meant To Be Played"
ist bereits eine "Entwicklerhilfe" um die Spiele besser auf Nvidia zu optimieren. Ein kleiner, wenn auch wichtiger Schritt zur medialen Verblödungungspolitik des Volkes. Nur ein dummer Kunde ist ein guter Kunde!
Das Nvidia bereits besser aussieht, wenn ATI schlecht aussieht brauch ich keinem zu erzählen. Ich erinnere an die ATI-Probleme mit GTA4, Need For Speed Shift, Anno 1404. Alles Zufall, dass Nvidia davon selten berührt ist? Vielleicht zahlt Nvidia auch Geld, dass ATI Kunden erstmal dumm aus der Wäsche schauen? Da die Spieleentwickler dennoch auf das Geld der für blöd verkauften ATI Kunden angewiesen sind, behebt ein Patch - nach dem der erste Hype um das Spiel vorbei ist - plötzlich alle ATI Probleme. Auch eine willkommene Strategie mit seinem Produkt in den Medien wieder für Schlagzeilen zu sorgen.


Nvidia hatte mal eine Große Kriegskasse, das ist aber schon eine Weile her.
Das The Way its sagt heute nichts aus, Crysis Warhead läuft auf ATI Karten schneller, Assassins Creed mit DX10.1 auch und noch viele andere Games auch.
Bei GTA IV hatte sowohl ATI als auch Nvidia am Anfang Probleme, bei Anno 1404 hatten einige Probleme viele andere nicht.

Nvidia selbst steht nicht mehr so gut da wie das einmal war. Dell hat Nvidia nach aus dem Programm entfernt und fährt jetzt ATI only.
Was das für einen Hersteller bedeutet muss ich sicher nicht erklären.

ATI hat gestern auch noch das ende von PhysX eingeläutet mit Open Physics. Die Entwickler können das auf ATI und Nvidia Karten realisieren.

ATI bringt heuer noch die beiden 5850/5870 X2 und die neue Mittelklasse 5750/5770. Nvidia wird heuer den Paperlaunch vom GT300 vollziehen.

Das der GT300 um einiges mehr Strom zieht ist ja kein Geheimnis, intern heißt er bei Nvidia "Reaktor" :D
Die wissen selber das der nicht sparsam sein wird. Er wird wahrscheinlich max. 20% schneller sein als eine 5870, dafür wird der so um die 400 - 450€ kosten, mehr Strom benötigen im idle und unter load und von Features wie Eyefinity träumt man bei Nvidia.

Wirst sehen in 2 oder 3 Monaten tauchen wieder Gerüchte auf, Intel will Nvidia kaufen. Was der nächst logische Schritt wäre, den AMD profitiert auch von ATI.
 
@Steve81
Ein guter Beitrag, wie ich finde. Diese Aspekte werden leider viel zu selten berücksichtigt. Wer weiß, was noch alles hinter verschlossenen Türen so abgeht, wovon der Kunde da draußen nichts weiß und wissen kann. Ähnlich verhält es sich ja auch bei Intel vs. AMD.
 
auch durch die vorstellung ATI´s, lässt nVidia endlich ein paar fakten über den Tisch. man kann nur schreiben, der Platzhirsch kehrt zurück in den Ring! ;)
 
Das die Erste Karte die man zu Gesicht bekommt eine Tesla ist, sagt eigentlich schon alles über diese Generation aus.
 
ATi ist jetzt schon um ein vielfaches schneller was GPGPU angeht. Ich denke damit holt nVidia ihre vergleichsweise miese Computingleistung auf, meine Angst dabei ist aber dass der 3D Bereich, der Grund wozu es Grakas gibt, ins hintertreffen gerät. Intel bringt nen Larabee INKL x86 CPU auf den Markt, von daher sollte man bei nVidia vorsichtig sein. Ich denke das ist reine Torschusspanik. Sollte ATi in diesem Bereich (sofern denn notwendig, schließlich braucht man keine 6 Monate ältere Architektur vergleichen) was zun, siehts garnet so übel aus. Selbst ne 4870 ist rein von der GPU Computing Power jeder nVidia vorraus. Deshalb bin ich gespannt wie hoch der Vorsprung seitens nV wird (gehe von aus, das dort überholt wird, ist aber auch net shcwer eine bis dato "alte" architektur zu übertrumpfen)
 
göschle schrieb:
Warum sollten sie sich vom Spieler wegbewegen und das Feld ATI überlassen ?!


Weils ganz am Ende nur ums Geld geht...

Ist doch egal ob man mit Klo-Papier oder mit Goldschmuck sein Geld verdient!

Frag mal den Besitzer von http://www.zewa.de/
 
bluecube schrieb:
Mal ne Frage zum Video. Ist da wirklich nur ein Anschluss zu sehen? Das find ich selbst für ein Vorserienmodell zu wenig.

Wäre ja schön und gut gewesen. PCGH hat dafür ein tolles Bild geschossen.
1x8 Pin und 1x6 Pin

Grüsse
 

Anhänge

  • Nvidia_Fermi_Tesla_PCGH_16.jpg
    Nvidia_Fermi_Tesla_PCGH_16.jpg
    127,6 KB · Aufrufe: 668
Krasse Sache!

Aber denke mal das es ziemlich teuer sein wird. =(
 
@Steve 81--> genau so sieht es aus, wobei der Vergleich mit der Politik hinkt ein bischen;)

Neue Implementierungen und Techniken sind gut und schön, aber irgendwie ist die Zielgruppe nicht klar erkennbar. Die Karte siet für mich teuer und für Anwendungen optimiert und nicht mehr für Gamer sondern Leute die mit der Karte arbeiten wollen.
Das Nvidia in Richtung GPGPU geht war abzusehen, die sehen ihre Felle ohne reine CPU davonschwimmen.
Ich bin noch viel mehr auf Larabee gespannt, um dann den direkten Vergleich zu Nvidia zu haben.
 
Zuletzt bearbeitet:
Klonbert schrieb:
auch durch die vorstellung ATI´s, lässt nVidia endlich ein paar fakten über den Tisch. man kann nur schreiben, der Platzhirsch kehrt zurück in den Ring! ;)


Das ist ein Versuch nicht so viele zu verlieren.
Das der GT300 schneller sein wird als die 5870 ist nach den Daten so gut wie beschlossen, nur die Frage ist wie viel schneller? Der Mehrverbrauch des GT300 muss ja in Relation zur Leistung stehen und der verbrauch wird über 200W liegen.

Dazu kommt noch das ATI die X2 bringt und heuer vielleicht noch eine 5890, je nachdem wie gut der GT300 tatsächlich wird.

Und eines sollten jeden auch klar sein, wenn Nvidia keine Dual GPU Karte bringt und das werden sie lange nicht können, springen viele Enthusiasten ab und holen sich die X2 Karten von ATI.
 
Menno, wenn hier manche schreiben, der GT300 hat 30% mehr Transistoren als der

Cypress könnt' ich heulen. Von 2 Milliarden auf 3 Milliarden muss ne Steigerung von 50%

her!!


Finde es erschreckend, wie manche Hardwarefreaks, die ständig mit Zahlen jonglieren und

Werte vergleichen, die einfachsten Prozentrechnungen vergeigen :freak:


Naja Back 2 Topic...


Bleibt doch eig. nur zu sagen "nix genaues weiß man nicht..."

Man kann schon vermuten, dass Wärmeentwicklung, Verbrauch und Yieldraten neue

Negativrekorde aufstellen. Aber hey, solange das Ding nicht getestet ist bringt doch die

ganze Spekulation nix. Warten wir mal den CB-Test ab und schlagen uns hinterher Fanboy-

mässig die Köpfe ein :D
 
Ralf T schrieb:
...
ATI hat gestern auch noch das ende von PhysX eingeläutet mit Open Physics. ...
Öhm, Havok wird auch auf OpenCL portiert und ob OpenCL das Ende von PhysX werden sollte, wage ich doch zu bezweifeln - schließlich kann man auch PhysX auf OpenCL portieren - dass Nvidia das bisher nicht tat lag ja nicht nur daran, dass Nvidia-Karten kein OpenCL sprachen, sondern auch daran, dass ATI-Karten ganz genauso kein OpenCL sprachen sondern über die alte proprieätre ATI-Stream-Schnittstelle hätten angesprochen werden müssen.

Ist ja richtig, dass GPGPU entproprietärisiert wird - bei beiden Herstellern - aber das ist bei dieser Vorstellung des GT300 kein Problem für Nvidia, wenn man sich die GPGPU-Daten des GT300 so ansieht.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben