News Bilder & Benchmarks: HD 2900 XT 1.024 MB GDDR4

Die Ultra und die XT von ati sind fast zeitgleich rausgekommen daher sehe ich kein entwicklungsvorsprung und ne Ultra hat ein fast identischen Stromverbrauch

daher ist das ein gutes zeichen für ati bisschen am treiber werkeln und sie haben dann die leistungsstärkere karte !!

PS:was ich sage ist gesetz
 
@müllermilch.

Tja, wenn man es so sieht. Punkt A macht 10%, Punkt B, 9.5%, Punkt C würde 9% weniger Verbrauch bringen...bla bla bla, Und selbst wenn PCs nur 1% einsparen können durch andere Nutzung, so ist es doch ein Erfolg, die Summe macht es.
 
Mir wäre das alles zu unsicher mit ATI !! Was die Verkaufszahlen wohl bestätigen. Ich hoffe das ATI weiter am Ball bleibt und rechtzeitig gleichziehen kann. Sonst sind in absehbarer Zeit fast nur noch nVidias in den PCs
 
Die Karte, finde ich, ist unter den gegebenen Rahmenbedinungen ein Witz. Der R600 hält nur bei ausgeschaltetem AA und AF mit. Sobald AA und AF eingeschaltet werden bricht die Karte ein. Wozu dann 1 GB DDR4 RAM? Man kann den RAM doch gar nicht auslasten. Warum sich also eine Karte kaufen, bei der ca. 600 - 700 MB RAM ungenutzt vor sich hin warten.

Was den Energieverbrauch unter Crossfire betrifft, so ist dies doch nur noch abartig zu nennen. Selbst im Idle Betrieb kann man damit im Winter ohne zusätzliche Heizung auskommen. Im Sommer ist die Anschaffung einer Klimaanlage zu überlegen. All jene, die sagen, auch kommt doch, sind doch "nur" 10 Watt bei mir mehr. Die Einzelschritte beim Verbrauch sind sicherlich nicht so dramatisch und tun auch finanziell nicht so weh. Aber überlegt mal, was ein Rechner so vor 5 oder 6 Jahren unter Volllast verbraucht hat. Da kann man heute nicht mal einen Rechner im Idle mit betreiben. Wer noch alte Stromabrechnungen hat, sollte sich ruhig mal die verbrauchten Kilowattstunden ansehen, wenn die Verbrauchsgewohnheiten etwa gleich geblieben sind (z.B. konstante Bewohnerzahl, keine zusätzlichen Verbraucher mit hohem Verbrauch usw.). Und mit der Aufrüsterei ist man ja nicht alleine. Es gibt da noch andere Leute, die genauso verfahren.

OT: Was den Klimawandel betrifft. Ist es wirklich so eindeutig oder wurden bzw. werden die kritischen Stimmen aus dem IPCC gemobbt? Wieviel natürliche Emmission von CO2 pro Jahr gibt es und wieviel produziert der Mensch durch fossile Verbrennung pro Jahr? Warum gab es in der Vergangenheit eine Korrelation zwischen den Warmphasen und dem Anstieg der CO2 Konzentration in einem Abstand von ca. 700 bis 800 Jahren und jetzt soll dies auf einmal nicht mehr gelten? Warum wird bei den Klimamodellen der Einflussfaktor Sonne, die aktuell in einer extrem aktiven Phase ist, entweder fast vollständig ignoriert bzw. einfach komplett aussen vor gelassen?
 
vielleicht ist die "alte" 2900 xt ja in hohen einstellungen eingebrochen, weil sie ebend nur 512 MB hat. mehr speicher und dazu schnellerer sollte doch dem entgegenwirken. also abwarten!

bei mir steht demnächst ein graka-kauf ins haus und ich drücke ati die daumen dass die es schaffen nvidia zu toppen. dann sinken wieder die preise :D
 
Und was bist du bereit für 1GB DDR4 zu bezahlen ?? Ist doch totaler Schwachsinn wenns daran liegt. :freak:
 
@ Microarchitekt OT Beitrag: Genau das sind die Punkte, die hier anscheinend niemand kennt, oder nicht kennen will...!!!!
 
@müllermilch & Microarchitekt:

Und ihr denkt wirklich führende Klimaforscher hätten das eben mal so übersehen, wobei sie Doktorarbeiten auf dem Gebiet geschrieben haben und schon seit Jahrzehnten forschen?!

Da kann man nur drüber lachen über eure naivität :lol:
 
w0mbat schrieb:
Unter OGL sollte sie aber laufen ;)

Unter OGL funktioniert prinzipiell immer alles über entsprechende Extensions.
Aber erstens ist die Mehrheit der Spiel nunmal D3D und zweitens werden solche OGL-Extensions meist nur dann verwendet, wenn mehr als ein Hersteller die Extension unterstützt.

Ich bin mir daher ziemlich sicher, daß die Tesselationseinheit des R600 in der Praxis nicht zum Einsatz kommt.
 
Ich erinnere mich noch wie groß das geschrei bei der 8800 Serie wegen des Strombedarfs war. Aber die Kunden (ich auch) habens hingenommen. Jetzt kommt ATI ein halbes Jahr später mit noch höheren Strombedarf !!
- Aber es scheint eine Grenze dessen zu geben, die Kunden nicht hinnehmen wollen.

- Und das ist gut so , ATI/AMD - so wirds nichts -

Es ist gut das ein Signal an die Industrie ging !
 
Lutschtablette schrieb:
So viel Scheisse auf einem Haufen habe ich noch selten gehört!

Das geb ich mal jetzt so zurück. Die Scheiße erzählst nämlich DU.

Lutschtablette schrieb:
Darum baut ATi das Teil auch ein, damit man es nicht nutzen kann.

Nein, weil man zu faul war, sie aus dem Xenos Design zu entfernen.

Lutschtablette schrieb:
Und die neue Ruby-Tech-Demo (DX10) nutzt diese Unit auch schon aber lieber mal einfach flamen und scheisse erzählen, echt jetz aber.

Diese Einheit ist unter DX10 NICHT nutzbar, DX10 kennt keine Tesselationseinheit. Basta!
 
Hmm, ist schön das die HD 2900 XT 1.024 MB beim 3D Mark noch ma zulegt, ein Kaufargument ist das für mich aber net wirklich, denn das ich das letzte mal 2 stunden vorm 3D Mark gesessen und mich dabei köstlich amüsiert habe, hmm lasst mich erinnern... ääähh noch nie passiert.
Die Karte is einfach ein Fehlschlag, hatte mir deutlich mehr Performance in Spielen erhofft und das zusammen mit dem Stromverbrauch setzt nvidia net wirklich unter Druck.
Trotzdem wird mir um ATI/AMD net bange denn im Midrangebereich sind sie glaub ich ganz gut aufgestellt mit der neuen Generation und da wird gutes Geld verdient.
 
@live@1: jo der strombedarf wird zwar viel kritisiert, würde aber der r600 entsprechd mehr leistung bringen als ne gtx dann wäre das geschrei nicht so groß.
 
@donphilipe83

Eine intertessanter Gedankengang, über den wir alle mal nachdenken sollten !! :evillol:
 
kaum kommen irgendwelche gerüchte auf, schon wird wieder rumgeflamed...
ich finde, dass man auf computerbase nur wahre fakten aufbringt und sinnloses geflame ala "ATI ist scheiße, GeForce is geil", weil manche leute nicht genau lesen können, sofort löscht....

eine 2900 XT 1gb GDDR4 ... mhm.. und kommt angeblich an eine 8800 ultra an...
anstatt irgendwie sich hier zu streiten, solltet ihr die klappe halten und abwarten, bis richtige tests gemacht wurden...

bin ich hier der einzige, der geduldig wartet, bis ATI gescheite treiber hat und deren top-modell 2950xtx rausbringt?
ich mach mir erst ein bild über ATI, sobald die treiber gescheit sind und alle standart-Modelle der 2000er reihe draussen sind, sovie der 8000er reihe von geforce...

ich versteh das problem einiger leute hier nicht, die sich immer beklagen müssen bei so kleinen dingsdas und sofort rumlabern wie hoch der stromverbrauch doch sei, obwohl der stromverbrauch einer 2900xt laut den meisten testern weitaus weniger is als auf computerbase... nähmlich bei 2D-anwendungen liegt er bei den meisten tests bei ~150W ... und bei 3D-anwendungen bei ~280W...

so und jetzt kommt eine 1gb variante raus und alle heulen rum ohne fakten in der hand zu haben, was eigentlich am schluss der fall is...
außerdem wurden die tests nicht mit dem neusten treiber von ATI gemacht...
aber in den nächsten tagen wird es getan sein, hab ich da gelesen...


also leute... ruhig sein...tee trinken... abwarten... das leben ist lang... ihr tut so, als würdet ihr morgen sterben und deswegen nichtmehr warten könnt
 
Na wenn ATI damal nich ne neue megakarte geschaffen hat auch wennse ETWAS mehr LEISTUNG ( :rolleyes: ) als die 8800 Ultra braucht, wirdse die 88xx er auf kurz oder lang schlagen. ( wenns endlich mal ausgereifte Treiber gäbe ) :king:
 
@55 kein seriöser wissenschaftler sagt das der klimawandel vom menschen gesagt ist, informier dich mal ein bisschen darüber ;)
 
AlphaGoku schrieb:
edit:

Wobei die Verbrauchstests von CB sind fürn A****!

eine GTX braucht unter Last weniger Strom als eine X1900

Und im CF/SLI brauchen die GTX dann plötzlich 80 Watt mehr

hier wesentlich realistischere Werte: http://hartware.de/review_707_11.html

Und weil das alles so realistisch ist, von dem du eine Unmege Ahnung zu haben scheinst, schauen wir einmal
Mit dem entsprechenden IQ könnte man die rote fette Schrift in unseren Tests lesen: Gemessen wird die Gesamt-Stromaufnahme des Testsystems
Und schaut man sich diesen Test an, der einen krassen Unterschied von 4 Watt bzw. 1,5 Prozent zw. 8800 GTX und 1900 XTX offenbart, ist das schon zum Haare raufen... Dein verlinktes Review vertraut schön auf die Vorgaben der Hersteller, die allesamt total unrealistisch und fein geschönt sind... auch wenn dort steht, dass es eigenen Messungen sind. Dass der Stromverbrauch eines gesamten System inklusive 2900 XT bei 275 Watt liegen kann glaubt jawohl kein Mensch, wenn die Karte nach Herstellerangaben und auch in unseren Tests schon über 200 Watt verbraucht. Deshalb ist übrigens auch der 8Pol(150W) +6Pol (75W) Stromstecker auf der Karte. Und das du den Rest des Systems .. mit nem X6800, nem fett ausgestatteten Board und 2 GB Ram mit dann 50 bis maximal 75 Watt betreibst .. ist klar!

Soviel zum Thema fürn A****!
 
Zuletzt bearbeitet:
Halt, ich sagte nur realistischer!

Erklär mir mal wie EINE GTX weniger verbrauchen soll als eine X1900 XT, wenn ZWEI GTX 80 Watt mehr brauchen als zwei X1900 XT.

Dass die Angaben bei Hartware.de auch nicht stimmen, sind wir uns einig...

Dass eine X1950XTX aber nicht genauso viel Strom ziehen kann wie eine X1900 mit 256 MB ist doch aber mehr als logisch?

edit:

So nach deiner Ansage hab ich mal den Stromverbrauch aller großen Pages verglichen

Die X1950XTX verbraucht tatsächlich genauso viel wie eine X1900 256MB


Was aber viel interessanter ist: die HD29XT braucht im Schnitt im idle höchstens genauso viel wie eine GTX, meist aber weniger. Unter Last braucht Sie mehr, aber dann 10-20 Watt mehr als eine GTX max. 30 Watt, bei euch sind es SAGENHAFTE 60 Watt!!

Hier sind ein paar links:

http://www.hardwareluxx.de/cms/artikel.php?action=show&id=546&seite=5
http://hardware.thgweb.de/2007/05/14/ati-radeon-hd-2900-xt-r600-directx10/page9.html
http://www.bjorn3d.com/read.php?cID=1099&pageID=3417
http://www.hexus.net/content/item.php?item=8687&page=10
 
Zuletzt bearbeitet:
Zurück
Oben