News Hat nVidias G80 das „Tape-Out“ hinter sich?

ich habe irgendwo gelesen dass der r600 nicht nur von de DIE ein ganzes stückchen größer sein wird als die bisherigen gpus, sonder der r600 soll auch ne ganze menge mehr saft verbraten. wenn man bedenkt dass atis r580 bereits jetzt ein ordentliches heizwerk ist und ne menge strom verbraucht, dann will ich nicht wissen wie es beim r600 sein wird.
 
Hoffen wir mal, dass sich das nicht bewahrheiten wird. Denn ich kaufe mir sicherlich nicht wieder ein neues NT und auch kein Extra-NT für die Grafikkarte. Wie wollen die solch ein Monster denn kühlen? Mit Stock-Wakü :freak:? Und die Mainstreamkarten brauchen dann Lüfter wie die X1900er / 7900 GTX, was... ;) Aber genug der Unkenrufe, alles nur Vermutungen und Mutmaßungen, the same procedure as every year. Man erinnere sich an die ersten Nachrichten und Fotos, als einige Engineering Samples der 7800er bei den Testern angeblich wegen Überhitzung aufgrund des "immensen" Stromverbrauchs durchgebrannt waren, und was war? Auch nur alles Schall und Rauch hinterher...
 
Zuletzt bearbeitet:
@Fatih2506

Kauf dir eine x1800xt für 229euronen bei alternate damit kommst du
locker bis nächstes jahr mit hin;-)
 
bitte löschen ... danke!
 
Zuletzt bearbeitet:
Irgendwie nichts Neues in dieser news :rolleyes: . Jetzt schon über den möglichen Stromverbrauch etc. zu diskutieren halte ich für total übertrieben. Viel wichtiger wäre eh, dass beide Hersteller ihre Karten diesmal vernünftig gekühlt bekommen.

Gruß
 
Aber der Stromverbrauch ist für die Kühlmethode der Grafikkarte entscheident!
 
Thaquanwyn schrieb:
Ich war kurz davor mit eine 7900gt zu kaufen, aber jetzt denke ich doch lieber nicht, warten besser, aber meine 9800pro (aktuelle karte Geforce2mx, 10€) ist durchgebrannt, was würdet Ihr mir empfehlen,
soll ich lieber eine 7600gt zu überbrückung der Zeit kaufen, was würdetIhr tun an meiner stelle.
Spätestens nächsten Monat steig ich auf core 2 duo um.

Auf eine Antwort bedanke ich mich jetzt schon

Athlon 2800Xp, Geforce2mx, Nforce2 Board, ca.1000MB Ram
Kommt stark auf dein Spiele-Profil an. Was spielst du am liebsten bzw. häufigsten?

Für Strategie-Freunde reicht eigentlich eine GeForce 7600 GT aus, für "Ego-Grafiker" ist in Anbetracht der Zukunft eine GeForce 7900 GT keine schlechte Idee.

Den Leistungssprung von DX9 zu DX10 kann man erstmal knicken. Es wird noch mindestens 1 Jahr lang nur "DX9-Spiele" geben (höchstens noch mit ein paar DX10-Anpassungen ala Crysis) und die bisherigen Generationen konnten die vorherige DX-Variante eigentlich nie wirklich überlegen schneller umsetzen.
Besonders bei einer Mainstreamkarte wie der 7600 GT ist der Wertverlust in diesem Jahr nicht so riesig.
 
entscheidend ;) . Nein, die Verlustleistung ist entscheidend, d.h. wie effizient der Chip mit der zugeführten Energie umgeht.
 
namX schrieb:
Noch eine wichtiges Merkmal für alle Interessenten wäre, das der G80 ja nicht auf die eigentlich von bzw. für D3D10 vorrausgesetzte Unified-Shader-Technologie setzt (bei der Vertex- und Pixel-Shader zu einheitlichen Shadern zusammengefasst werden, welche beide Aufgaben erledigen können), sondern an dem alten Prinzip der Trennung festhält, sodass der G80, im Gegensatz zum R600, nicht komplett D3D10-kompatibel ist.

Somit gibt es einen marginalen Unterschied zwischen G80 und R600, der (zumindest für mich) in gewisser Weise kaufentscheidend ist.

Hoffe ich konnte manchem damit in der Einteilung der verschiedenen Grafik-Chips helfen, der der "eigentliche" Next-Gen-Chip ist der R600

soweit von mir,
MfG namX

naja der treiber wird direct3d10 eh eine unified-shader architektur vortäuschen von daher is das egal. und zudem werden wohl dedizierte pixel bzw vertex-/geometry-shader effektiver arbeiten können als unfied-shader .
 
Zudem, mit der ersten Grafikkartengeneration einer neuen DX Version Spiele spielen die darauf aufsitzen. :lol:
Die erste Generation war schon immer ein Fehlkauf gewesen. Da wartet man lieber auf die zweite Generation von DXnext Grafikkarten.
 
Zudem, mit der ersten Grafikkartengeneration einer neuen DX Version Spiele spielen die darauf aufsitzen. :lol:
Die erste Generation war schon immer ein Fehlkauf gewesen. Da wartet man lieber auf die zweite Generation von DXnext Grafikkarten.
 
namX schrieb:
Noch eine wichtiges Merkmal für alle Interessenten wäre, das der G80 ja nicht auf die eigentlich von bzw. für D3D10 vorrausgesetzte Unified-Shader-Technologie setzt (bei der Vertex- und Pixel-Shader zu einheitlichen Shadern zusammengefasst werden, welche beide Aufgaben erledigen können), sondern an dem alten Prinzip der Trennung festhält, sodass der G80, im Gegensatz zum R600, nicht komplett D3D10-kompatibel ist.

Somit gibt es einen marginalen Unterschied zwischen G80 und R600, der (zumindest für mich) in gewisser Weise kaufentscheidend ist.

Hoffe ich konnte manchem damit in der Einteilung der verschiedenen Grafik-Chips helfen, der der "eigentliche" Next-Gen-Chip ist der R600

soweit von mir,
MfG namX

Unfied-shader sind wirklich Vorraussetzung für DX10?

mFg tAk
 
Moah ich bin so heiß auf den nVidia G80. Kanns kaum erwarten. Stromverbrauch hin oder her, ist mir richtig Titte. Das Ding ist, sobald es draußen ist, gekauft und zwar gleich SLI :D .
 
Werde mich trotzdem Mental drauf vorbereiten und ein nahegelegenes AKW anmieten, dass ich den Stromverbrauch irgendwie abdecken werde können^^....

Wir werdens ja sehen...
 
Ich werd mir auch erstmal zum überbrücken "nur" eine 7900GT / 1900XT kaufen. Wenn dann irgendwann mal Vista rauskommt, kann man sich auch eine ausgereifete NextGen-GraKa kaufen. Vorher wäre das m.E. bloß sinnloses Benchgeprolle - wers braucht ;)
 
MS hatte mal eine USA vorgesehen als MUSS für D3D10. Dies ist aber schon länger nicht mehr so, wohl auf Druck von nVidia. Somit ist der G80 voll D3D10 kompatibel.
 
Sonst dürfte nVidia den G80 auch nicht als vollwertigen DX10 Chip vermarkten nehm ich an.

mFg tAk
 
tAk schrieb:
Unfied-shader sind wirklich Vorraussetzung für DX10?

mFg tAk

Nein, natürlich nicht. Die unified Architektur bezieht sich nur auf das Programmiermodell des API, das hat nichts mit der Chiparchitektur zu tun. Der Chip kann aufgebaut sein wie er will, er muss nur die Funktionen des API unterstuetzen.


Wolfgang schrieb:
MS hatte mal eine USA vorgesehen als MUSS für D3D10. Dies ist aber schon länger nicht mehr so, wohl auf Druck von nVidia. Somit ist der G80 voll D3D10 kompatibel.

Das halte ich für Unsinn. Wodurch sollte MS überhaupt in der Lage sein vorzuschreiben, wie eine Hardware auszusehen hat?
 
Zuletzt bearbeitet:
Wolfgang schrieb:
MS hatte mal eine USA vorgesehen als MUSS für D3D10. Dies ist aber schon länger nicht mehr so, wohl auf Druck von nVidia. Somit ist der G80 voll D3D10 kompatibel.
Softwareseitig ist das ein Muss. Die Karte muss nach außen hin Unified Shader unterstützen. Wie sie das hardwareseitig macht wurde den Herstellern überlassen.


@swz.alucard:
Wie kommst du darauf, dass die Unified Shader eine schlechtere Performance bieten, als dedizierte Shader? Mit US werden wenigstens alle Resourcen genutzt und idlen nicht rum wie beim herkömmlichen Design.

Es kommt auch immer ganz auf die Effekte an. Mit Unified Shadern lassen sich Effekte erzeugen, die mit normalen PS und VS nicht mit ausreichender Performance möglich sind.


Und um nochmal was zum Stromverbrauch zu sagen. Die 300 Watt halte ich definitiv für falsch. Im Moment ist das alles nur Spekulation und da warte ich lieber mal ab. So schlimm wird das schon nicht werden. Selbst Intel hat es ja jetzt verstanden, dass der Energieverbrauch ihrer Prozessoren ein wichtiges Kaufkriterium für die Kunden ist.

Das wird nVidia und ATi ja hoffentlich auch schon aufgefallen sien.
 
Zuletzt bearbeitet:
@noxon
naja die neuen chips werden einige transistoren mehr wiegen, gerüchte sagen der r600 wird ein "riesen-chip"
von da aus können die schon einiges verbraten, aber 300w halte ich für utopisch, dem g70 hatte man auch 130w nachgesagt

aber 65nm halte ich auch nicht für realistisch falls der r600 noch dieses jahr kommen soll
im september kommen gerade mal die ersten 80nm chips und auch erst mainstream chips
komplexe chips in 65nm wird wohl noch etwas dauern
 
Zurück
Oben