Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test ATi Radeon HD 2900 XT im Test: Platzhirsch oder kleiner Bruder der GeForce 8800?
das ist ja wirklich bitter.... nach der C2D Schlappe jetzt sowas, wenn AMD mit dem K10 nicht ein Wunderprodukt auf den Markt zaubert, dann sehe ich schwarz. Naja, wenigstens werden die nicht Pleite gehen, im unteren Preissegment ist ATI mit der x1950pro Nvidia haushoch überlegen ^^
Ich lehne mich zurück und warte was passiert....
Ich lehne mich zurück und warte was passiert....
- Registriert
- Sep. 2005
- Beiträge
- 10.454
Die Aussage, dass die 2900XT auf die GTS 640 zielt finde ich ist Schwachsinn.
Warum sollt ATI den Wunsch gehabt haben mit ihrer aller neuesten Entwicklung auf das drittschnellste Produkt der Konkurrenz zu zielen?![Freak :freak: :freak:](/forum/styles/smilies/freak.gif)
Mercedes entwickelt ja auch nicht die neue super duper S-Klasse und sagt dann, dass wäre der neue 3er BMW Konkurrent. lol
Habe das Gefühl, dass sie sich dazu entschlossen haben die PR-Aussagen etwas zu ändern nachdem sie die Laborwerte vor sich hatten...
Ich hätte es ATI echt gewünscht ein top Produkt abuzuliefern.
Doch nach diesen Tests mache ich mir echt Sorgen um AMD/ATI.
Glaube auch kaum, dass da eine XTX noch was umdrehen kann.
Nvidia hat ja wohl kaum aufgehört weiter zu entwickeln.![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
Hoffen wir auf die 2950XT/XTX.![Zunge rausstrecken :p :p](/forum/styles/smilies/tongue.gif)
Warum sollt ATI den Wunsch gehabt haben mit ihrer aller neuesten Entwicklung auf das drittschnellste Produkt der Konkurrenz zu zielen?
![Freak :freak: :freak:](/forum/styles/smilies/freak.gif)
Mercedes entwickelt ja auch nicht die neue super duper S-Klasse und sagt dann, dass wäre der neue 3er BMW Konkurrent. lol
Habe das Gefühl, dass sie sich dazu entschlossen haben die PR-Aussagen etwas zu ändern nachdem sie die Laborwerte vor sich hatten...
Ich hätte es ATI echt gewünscht ein top Produkt abuzuliefern.
Doch nach diesen Tests mache ich mir echt Sorgen um AMD/ATI.
Glaube auch kaum, dass da eine XTX noch was umdrehen kann.
Nvidia hat ja wohl kaum aufgehört weiter zu entwickeln.
![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
Hoffen wir auf die 2950XT/XTX.
![Zunge rausstrecken :p :p](/forum/styles/smilies/tongue.gif)
Zuletzt bearbeitet:
Berserkervmax
Banned
- Registriert
- Apr. 2004
- Beiträge
- 3.118
liox schrieb:Also mich wunderts warum sich hier alle über die 30 Watt mehr an Leistung aufregen ... Kein Sorge, die 30 Watt werdet ihr nicht sonderlich auf der Stromrechnung merken.
nicht..rechne doch mal nach..
365 Tage x 24Stunden x 30Watt = rund 263KW
263 x 19€Ct = Rund 50€
Mehr !!! Nur für die GK !!!
Ich finde das ist schon VIEL !
Aber die NVs brauch auch viel zu viel Strom...echt krank...High end CPUs brauche bei nix tun nur 15% des Last Stromes ..bei High End GPUs geht es anscheinend nicht..
Zuletzt bearbeitet:
schwabi
Ensign
- Registriert
- Aug. 2006
- Beiträge
- 245
naja...kommt AMD, kommt problem....zufälliger zufall?
Das ist ein witz..die karte ist so schnell wie mein X1950XTX, hier ist einiges schief gelaufen...ich glaube aber nicht, dass etwas an der Hardware schiefgelaufen ist!
Wenn ATi es nicht schafft Durchgehend 10% schneller zu sein als ne 8800GTS, dann wird der R600 nur in den Regalen zu sehen sein.
![Augen rollen :rolleyes: :rolleyes:](/forum/styles/smilies/rolleyes.gif)
Das ist ein witz..die karte ist so schnell wie mein X1950XTX, hier ist einiges schief gelaufen...ich glaube aber nicht, dass etwas an der Hardware schiefgelaufen ist!
Wenn ATi es nicht schafft Durchgehend 10% schneller zu sein als ne 8800GTS, dann wird der R600 nur in den Regalen zu sehen sein.
cyrezz
Rear Admiral
- Registriert
- Jan. 2004
- Beiträge
- 5.416
@XeroNXS
Warum? Weil die HD 2900 XT nun mal gegen die GTS antritt, da war von der Ultra noch keine Rede, als das bekannt wurde. Daher hatte man auf die zweitschnellste es abgesehen. Die in 65nm gefertigte HD 2900 XTX mit DDR4 soll dann gegen die GTX antreten, ob und wie dass sehen wir dann wohl erst im 3. Quartal 2007. Zusammengefasst habe ich das mal in Post #75, da vergleiche ich mal ein paar Werte mit der direkten Konkurrenz, namentlich 8800 GTS.
Warum? Weil die HD 2900 XT nun mal gegen die GTS antritt, da war von der Ultra noch keine Rede, als das bekannt wurde. Daher hatte man auf die zweitschnellste es abgesehen. Die in 65nm gefertigte HD 2900 XTX mit DDR4 soll dann gegen die GTX antreten, ob und wie dass sehen wir dann wohl erst im 3. Quartal 2007. Zusammengefasst habe ich das mal in Post #75, da vergleiche ich mal ein paar Werte mit der direkten Konkurrenz, namentlich 8800 GTS.
Da kann selbst der größte Fanboy nichts mehr schön redenerazor82 schrieb:wo sind nun die Fanboys von ATI??
![Cool :cool_alt: :cool_alt:](/forum/styles/smilies/cool.gif)
Max007
Lt. Commander
- Registriert
- Juli 2004
- Beiträge
- 1.105
Diese Karte ist für meinen Geschmack ein Debakel. Da lässt man sich schon solange Zeit, rührt kräftig die Trommel und alles was dabei rauskommt ist eine höchst mittelmäßige Karte die in Qualitätssettings massiv einbricht. Wer soll diese Karte kaufen? Mich interessiert auch nicht der günstige Preis.
Der X2900XT ist angetreten um den 8800GTS zu schlagen. Ist aber mächtig danebengegangen der Versuch. Ich habe lange mit meiner X1900XT vorlieb genommen und keine 8800 gekauft, da der R600 ja so toll sein sollte.
Ist er aber nicht. Meine nächste Graka wird eine 8800 GTX sein.
In dem Sinne, Gute Nacht ATI(AMD).
PS: Bei diesen Benchmarkwerten erhoffe ich mir von der 2900XTX auch keine Offenbarung. Soviel macht der GDDR4-Speicher im Leben nicht aus.
Der X2900XT ist angetreten um den 8800GTS zu schlagen. Ist aber mächtig danebengegangen der Versuch. Ich habe lange mit meiner X1900XT vorlieb genommen und keine 8800 gekauft, da der R600 ja so toll sein sollte.
Ist er aber nicht. Meine nächste Graka wird eine 8800 GTX sein.
In dem Sinne, Gute Nacht ATI(AMD).
PS: Bei diesen Benchmarkwerten erhoffe ich mir von der 2900XTX auch keine Offenbarung. Soviel macht der GDDR4-Speicher im Leben nicht aus.
T
Tobi86
Gast
Es ist eine HERVORRAGENDE KARTE!!! Ein MUST-HAVE!!!
Bad Mo-Fo
Rear Admiral
- Registriert
- Juli 2003
- Beiträge
- 5.628
also ich hab mit einem noch schlechteren Ergebnis gerechnet ![Lächeln :) :)](/forum/styles/smilies/smile.gif)
Einziges Manko imo ist der Stromverbrauch, aber da war Ati in der letzten Generation auch nicht besser.
Die anderen Probleme sind bestimmt auf Treiberprobleme zurückzuführen, sonst wären die einbrüche mit AA/AF bzw nicht erklärbar, naja und nen Lüfter der zwischendurch laut aufdreht und dann wieder still wird, das ist ja erst recht klar eine reine Software steuerung
Und wenn PC Welt nen 4 Stunden neueren Treiber am Tage des Launchs verwendet dann sollte man echt nen Lesitungsschub von 100% erwarten
Also Müll seh ich keinen ist halt keine Überkarte.
Finds aber geil zu sehen wie es Leute nur in erwähnung ziehen, die KArte mit einer 650€-700€ teuren Karte von Nvidia zu vergleichen.
Bei 20 Watt mehr schreien sie alle laut auf, dabei haben 90% derjenigen noch nie ne Stromrechnung von innen gesehen
, aber die hälfte des Preises zu einer Ultra kann man aber getrost ignorieren.
Ach ja Kind müßte man wieder sein.
![Lächeln :) :)](/forum/styles/smilies/smile.gif)
Einziges Manko imo ist der Stromverbrauch, aber da war Ati in der letzten Generation auch nicht besser.
Die anderen Probleme sind bestimmt auf Treiberprobleme zurückzuführen, sonst wären die einbrüche mit AA/AF bzw nicht erklärbar, naja und nen Lüfter der zwischendurch laut aufdreht und dann wieder still wird, das ist ja erst recht klar eine reine Software steuerung
Und wenn PC Welt nen 4 Stunden neueren Treiber am Tage des Launchs verwendet dann sollte man echt nen Lesitungsschub von 100% erwarten
![Augen rollen :rolleyes: :rolleyes:](/forum/styles/smilies/rolleyes.gif)
Also Müll seh ich keinen ist halt keine Überkarte.
Finds aber geil zu sehen wie es Leute nur in erwähnung ziehen, die KArte mit einer 650€-700€ teuren Karte von Nvidia zu vergleichen.
Bei 20 Watt mehr schreien sie alle laut auf, dabei haben 90% derjenigen noch nie ne Stromrechnung von innen gesehen
![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
![Freak :freak: :freak:](/forum/styles/smilies/freak.gif)
Ach ja Kind müßte man wieder sein.
Zuletzt bearbeitet:
D34th_0f_4LL
Lt. Commander
- Registriert
- Apr. 2005
- Beiträge
- 1.906
die sind geschockt vorm PC zusammengebrochen![Evil LOL :evillol: :evillol:](/forum/styles/smilies/evillol.gif)
![Evil LOL :evillol: :evillol:](/forum/styles/smilies/evillol.gif)
Uiuiuiui, das is ne Bombe.
Keine wirklich herausragende Performance. Ein neues Flaggschiff hätte wenigstens an die GTX rankommen müssen, um da nach einem halben Jahr Rückstand Käufer doch noch zur Anlage zu bewegen.
Jetzt ist sie mit AA/AF-Einstellungen auch noch deutlich langsamer als eine 8800GTS, zieht unter Last mehr als 90 Watt mehr aus der Büchse und kostet auch noch wahrscheinlich um die 50€ mehr (Marktpreis dürfte wohl unter 399€ liegen).
Wenn bei ATI die Mainstreamkarten auch noch n Griff ins Klo sind, haben sie ein echtes Problem.
Keine wirklich herausragende Performance. Ein neues Flaggschiff hätte wenigstens an die GTX rankommen müssen, um da nach einem halben Jahr Rückstand Käufer doch noch zur Anlage zu bewegen.
Jetzt ist sie mit AA/AF-Einstellungen auch noch deutlich langsamer als eine 8800GTS, zieht unter Last mehr als 90 Watt mehr aus der Büchse und kostet auch noch wahrscheinlich um die 50€ mehr (Marktpreis dürfte wohl unter 399€ liegen).
Wenn bei ATI die Mainstreamkarten auch noch n Griff ins Klo sind, haben sie ein echtes Problem.
Nur einen Hardwarehersteller zu haben kann auch Vorteile mit sich bringen: die Entwicklung der Hardware geht langsamer voran, was zur Folge hätte daß die Komponenten länger aktuell sind. Die Programmierer können so nicht mehr ineffiziente Programmierung dadurch wettmachen, daß sie die Zeit bis zur nächsten CPU, GPU oder sonstiges einfach aussitzen. Kostet die CPU halt das doppelte. Na und? Das wird eh schon allein dadurch wettgemacht, daß ich deutlich seltener ein neues Board plus RAMs brauche.
Auf der anderen Seite wäre ohne die Konkurrenz die Hardware nicht da, wo sie heute ist. Dennoch fände ich es angemessen, wenn die nächsten 2 oder 3 Jahre die Hardwareentwickler ihre Ressourcen nicht in immer schnellere Siliziummonster stecken, sondern an der "Leistung pro Watt" Schraube drehen. Es wäre durchaus angebracht, wenn eine Karte wie die 2900XT, oder auch die 8800GTX ihre volle Leistung auch bei nur 80W oder noch weniger entfalten könnten. Die hieraus entstandenen Mechanismen zum Stromsparen können dann in folgenden Hardwaregenerationen weiterverwendet und weiterentwickelt werden.
Auf der anderen Seite wäre ohne die Konkurrenz die Hardware nicht da, wo sie heute ist. Dennoch fände ich es angemessen, wenn die nächsten 2 oder 3 Jahre die Hardwareentwickler ihre Ressourcen nicht in immer schnellere Siliziummonster stecken, sondern an der "Leistung pro Watt" Schraube drehen. Es wäre durchaus angebracht, wenn eine Karte wie die 2900XT, oder auch die 8800GTX ihre volle Leistung auch bei nur 80W oder noch weniger entfalten könnten. Die hieraus entstandenen Mechanismen zum Stromsparen können dann in folgenden Hardwaregenerationen weiterverwendet und weiterentwickelt werden.
T
The Stig
Gast
Ein wenig unrealistisch das Beispiel. Ich kenne Niemanden, bei dem der Rechner das ganze Jahr über 24h am Tag unter Vollast läuft. Naja ein WoW-Süchtiger vielleicht...aber dessen Problem dürfte wohl weniger der Stromverbrauch seines Rechners sein.Berserkervmax schrieb:365 Tage x 24Stunden x 30Watt = rund 263KW
Zunächst einmal ein grosses Lob an ComputerBase für diesen ausführlichen Artikel - wir alle haben ihn ja bereits mit grosser Spannung erwartet ![Lächeln :) :)](/forum/styles/smilies/smile.gif)
Die Fakten über den R600 hinterlassen bei mir einen zwiespältigen Geschmack. Der Strombedarf ist erwartungsgemäss (zu) hoch, was sich aber gegebenenfalls noch verschmerzen lässt, zumal die Temperaturen und Kühlung in Ordnung scheinen.
Der Leistungsabfall mit AA/AF überrascht mich allerdings, war ich das doch bisher eher von nVidia gewohnt - mit G80 und R600 tauschen die beiden Hersteller hier offenbar die Rollen. Das bessere AF von nVidia und das so gut wie gleichwertige AA sind auch nicht als Vorteile zu verbuchen.
Liebe Grüsse,
Winterday
![Lächeln :) :)](/forum/styles/smilies/smile.gif)
Die Fakten über den R600 hinterlassen bei mir einen zwiespältigen Geschmack. Der Strombedarf ist erwartungsgemäss (zu) hoch, was sich aber gegebenenfalls noch verschmerzen lässt, zumal die Temperaturen und Kühlung in Ordnung scheinen.
Der Leistungsabfall mit AA/AF überrascht mich allerdings, war ich das doch bisher eher von nVidia gewohnt - mit G80 und R600 tauschen die beiden Hersteller hier offenbar die Rollen. Das bessere AF von nVidia und das so gut wie gleichwertige AA sind auch nicht als Vorteile zu verbuchen.
Liebe Grüsse,
Winterday
Bad Mo-Fo
Rear Admiral
- Registriert
- Juli 2003
- Beiträge
- 5.628
@ Wiseguy
das siehst du als Vorteil ?!
Das erklär dann mal bitte de andren wenn ab jetzt die Nvidia Karten weniger Strom ziehen, langsamer sind, und Crysis erst mitte 2008 kommt.
Da werden sich alle freuen
![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
Mit deiner Meinung bildest du die Minderheit
Den Leuten die hier am lautesten bellen, und in der Überzahl sind, gehts darum dass es die stärkste Karte, Spiele noch schneller erscheinen, und noch geiler aussehen
Ach ja, und wenn der Stromverbrauch gesenkt wird wär auch noch "ganz nett".
Das Silent Argument zählt da mehr, weil man ja mitbekommen will wenn Papi im Erdgeschoß den Brief der Stromrechnung öffnet.
das siehst du als Vorteil ?!
Das erklär dann mal bitte de andren wenn ab jetzt die Nvidia Karten weniger Strom ziehen, langsamer sind, und Crysis erst mitte 2008 kommt.
Da werden sich alle freuen
![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
Mit deiner Meinung bildest du die Minderheit
Den Leuten die hier am lautesten bellen, und in der Überzahl sind, gehts darum dass es die stärkste Karte, Spiele noch schneller erscheinen, und noch geiler aussehen
Ach ja, und wenn der Stromverbrauch gesenkt wird wär auch noch "ganz nett".
Das Silent Argument zählt da mehr, weil man ja mitbekommen will wenn Papi im Erdgeschoß den Brief der Stromrechnung öffnet.
Zuletzt bearbeitet:
Blazin Ryder
Lt. Commander
- Registriert
- Sep. 2004
- Beiträge
- 1.139
EINE KATASTRPOHE die Karte.
1: Der Stromverbrauch, unter aller KANONE
2: Wenn ich schon 400 bis 500€ ausgebe, dann ist bei 1280 x1024 aa und af ein MUST HAVE, das kann man sich aber dank der schlechten Performance von der BACKE SCHMIEREN, da kann jeder bei seiner x1950xtx bleiben, da ist man beinahe genauso gut bedient.
3: Wer ne 8800GTX sein eigen nennt, der schmuzelt jetzt wohl leicht^^
4: Naja Nvidia hat ja auch mit der Fx 5800/5900 Mist herbeigezaubert, wird wohl nicht der Weltuntergang sein für AMD/ATI
1: Der Stromverbrauch, unter aller KANONE
2: Wenn ich schon 400 bis 500€ ausgebe, dann ist bei 1280 x1024 aa und af ein MUST HAVE, das kann man sich aber dank der schlechten Performance von der BACKE SCHMIEREN, da kann jeder bei seiner x1950xtx bleiben, da ist man beinahe genauso gut bedient.
3: Wer ne 8800GTX sein eigen nennt, der schmuzelt jetzt wohl leicht^^
4: Naja Nvidia hat ja auch mit der Fx 5800/5900 Mist herbeigezaubert, wird wohl nicht der Weltuntergang sein für AMD/ATI
zeroCool1131
Cadet 4th Year
- Registriert
- Aug. 2006
- Beiträge
- 67
foxm schrieb:abwarten.. ich glaube die ganzen kiddies freuen sich zu früh über die "schlechte" karte...
weiss jemand was konkretes bezgl. der xtx version?
so long
Ja die verbraucht noch mehr Strom!
![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
Ähnliche Themen
- Antworten
- 147
- Aufrufe
- 38.293
- Antworten
- 191
- Aufrufe
- 84.963
O
- Antworten
- 136
- Aufrufe
- 15.188