News Finale Spezifikationen des R600 vorgestellt

Nvidia bringt ihre Karten zwar oft früher raus, aber 1Gig Ram und 512Bit Speicherinterface? Oh man die macht die 8800 wieder rund....dann muss ich wieder umsatteln :D

Aber die neue von ATI sieht ja affig aus und VIEL zu lange :D
 
Voyager10 schrieb:
schwabi
Es sind aber nicht nur 2 Stecker, es sind ein 8poliger und ein 6poliger Stecker !

ist aber mit 2 6 - poligen oder 1 6poligen udn 2 4 - poligen betreibbar...

Also passt das schon....

Die Karte KANN daher UNMÖGLICH mehr als 225 watt verbrauchen....

und das sind keine real werte...so wie der G80 um die 150 watt zieht unter last, wird der R600 seine 180 - 200 Watt ziehn, denke ich

Die Karte ist bestimmt ne gute wahl, und die preise werden sicher schnell fallen...

ich würd mir jezt keine 8800GTX kaufen...


ich hoffe das war ironie:
Aber die neue von ATI sieht ja affig aus und VIEL zu lange
 
Wie viele Shader? Welche Versionen wird es geben? Wie teuer? Wie viel Stromverbrauch? Treiber? DAS wären für mich finale Fakten.
 
wie viele werden sich schon diese highend teile holen? viele werden eh auf die kleineren versionen warten und da wirds ati wohl schwerer haben! im 300€ preisesegment glaub ich werden die kaum was haben was schnell genug sein wird, bzw drunter aber das werden wir auch noch sehn, am ende ist ati schneller und es heißt ati hat die schnellsten karten und alle kaufn sich nen pc mit ner ati x2900gs oder so und dann kommt einer mit einer 8800gts 320mb und sie ist schneller und alle wundern sich wieder! dauert eh nicht mehr lang und zur cebit wirds bestimmt erste "echte" benchmarks geben,
 
wunderbar, im sommer steht ein neuer computer an und da kann ein bisschen konkurrenz zwischen ati und nvidia für mein budget ja bloß gut sein :D. besonders die x2900xt könnte interessant werden.
 
pool schrieb:
Wie viele Shader? Welche Versionen wird es geben? Wie teuer? Wie viel Stromverbrauch? Treiber? DAS wären für mich finale Fakten.

ROPs/TMUs/Architektur/Füllraten/Taktraten/ALUs

DAS fehlt auch noch.

gibt zwar gerüchte, aber noch keine komments von AMD/ATI :(
 
Und noch einen Monat warten...
Herrje, ich will endlich mal was finales zum Stromverbrauch lesen...
Kann doch nicht so schwer sein liebe ATIler...

in diesem Sinne
Grüße blueGod
 
Also ich lass meinen Staubsauger ja auch nicht unbedingt 10 Stunden und mehr am Tag laufen, weis nicht wie du das so hälst...

Im übrigen freu ich mich auch schon darauf, wenn der G81 da ist :D

Aber du lässt aber eine andere Grafikkarte die 10 Stunden laufen !!! Also zählt doch nur die Differenz ...

Bei nem kompletten System mit G80 hast du nen durchschnittlichen Stromverbrauch von 250 Watt. Nehmen wir an bei einer x2900xtx wären das 20 Watt mehr.

250 Watt * 10 Stunden = 2500 W/h = 2,5 KW/h = ca. 50 cent / Tag :eek:

270 Watt * 10 Stunden = 2700 W/h = 2,7 KW/h = ca. 54 cent / Tag :freak:

Macht wenn du 360 Tage im Jahr 10 Stunden Rechner in Betrieb hast, was du nie im Leben erreichst, ca. 14 € im Jahr !! :cool_alt:

Und wer sagt dir das der G81 nicht noch mehr verbraucht ???

Also das mit dem höhren Stromverbrauch, is imho n Witz da drüber zu diskutieren !!
 
DAs wichtigere ist der IDLE-Stromverbrauch und da kann man und MUSS man diskutieren.

Klar wenn die eindeutig schneller ist als die G80, no prob, soll soll mehr Saft verbrauchen:freak: .

Aber wichtig ist der IDLE-Verbrauch , denn es kann nicht sein, wenn man rumsurft oder mit Office arbeitet, dass die Graka trotzdem soviel Energie gebraucht, fast wie im 3D-Modus.


Also ich fasse zusammen, die wichtigsten PUNKTE der GRAKA 2900XT/X vs. 8800GTX:

Peformance bei games: hier sollte die 2900XTX bei allen AUflösungen und Quali-Settings unbedingt 20% und mehr schneller sein, sonst lache ich mich tot, was ATI vollbracht hat......ich glaub sie wird es.

Denn was für eine Logik steckt dahinter die Karte mit 29xx zu benennen´?

Ganz einfach, die 28xx ist praktisch nicht erschienen und es kommt sozusagen gleich der "Refresh" raus.

BIldquali: Sollte mind. auf dem NIveau des G80 sein

IDLE-Stromverbrauch

Lautstärke des Kühlsystems: hm.....k.A........aber bei ATI ist man schlechtes gewöhnt,,,xD:rolleyes:

Treiber: Das ist auch ein wichtiger Punkt. Wenn ATI wie Nvidia ein HALBES Jahr braucht und immer noch nicht gescheite Treiber rausbringt, dann gute Nacht....

Ja das wärs eigentlich.
Bin aber trotzdem enttäuscht von ATI, da sie ein halbes Jahr länger gebraucht haben und wenn man bedenkt, dass fast jedes Jahr eine neue Grafikchip-Generation rauskommt, dann muss die R600 der G80 ganz schön überrumpeln. ansonsten sieht es schlecht um den Ruf und um die Glaubwürdigkeit von ATI/AMD aus......
 
ich find es toll wie viele trolle sich hier wieder rumtreiben und die ganze zeit schreien das die karte zu groß ist. da muss doch irgendwas im gehirn überschwappen wenn sie 30 cm lesen so dass das OEM föllig aussen vor bleibt. das folgende und entscheidende RETAIL und 24cm (was im übrigen run4 cm kleiner als die 8800gtx ist) wird dann völlig ignoriert da die karte ja bekanntlich 30cm groß ist.
ich sag nur traurig was aus unserem deutschland aus intellektueller sicht geworden ist!
bei so manchen kommentaren muss ich mich echt fragen warum dieser mensch das essen und trinken noch nicht verlernt hat.
 
alle reden immer davon das ati zu spät dran ist,ich sage nv war zu früh und hat kein gutes produkt gebracht
 
FaZe schrieb:
Aber du lässt aber eine andere Grafikkarte die 10 Stunden laufen !!! Also zählt doch nur die Differenz ...

Bei nem kompletten System mit G80 hast du nen durchschnittlichen Stromverbrauch von 250 Watt. Nehmen wir an bei einer x2900xtx wären das 20 Watt mehr.

250 Watt * 10 Stunden = 2500 W/h = 2,5 KW/h = ca. 50 cent / Tag :eek:

270 Watt * 10 Stunden = 2700 W/h = 2,7 KW/h = ca. 54 cent / Tag :freak:

Macht wenn du 360 Tage im Jahr 10 Stunden Rechner in Betrieb hast, was du nie im Leben erreichst, ca. 14 € im Jahr !! :cool_alt:

Und wer sagt dir das der G81 nicht noch mehr verbraucht ???

Also das mit dem höhren Stromverbrauch, is imho n Witz da drüber zu diskutieren !!


Sind deine Werte in etwa richtig? Ich kenne mich mit Strompreisen usw. nicht aus und habe meinen PC(E6700,8800GTX) etwa 10h am tag laufen....kann ich da etwa mit deinen 50 cent rechnen bzw. bin ich, wenn ich statt der 50 cent 1 Euro annehme sicher dabei? (365€/Jahr)

btt:

Jo, die daten, die bisher bekannt sind, sind wirklich nicht gerade die leistungsbestimmensten -.-
 
jaaaaaa,
so ne riesen-karten kenn ich noch von früher...... waren hdd-controller......oder mainboards......
oder ganze computer </scherrrrz>
 
Tja, und ich hatte gehofft unter dieser News etwas über die Midrange Modelle zu erfahren. Mich hätte z.B. interessiert, ob die jetzt wirklich nur ein 128-Bit Interface haben. Immerhin wäre dann ja eine X1950 Pro mit einem 256-Bit Interface ein ernstzunehmender Gegner. Kann mich noch an das letzte Mal erinnern, als ich eine Karte von ATI kaufen wollte. In meiner Preisklasse bis 200€ gab es die X1600 deren Leistung ich ehrlich gesagt als Witz empfunden habe und lieber zur Vorgängergeneration gegriffen habe (gut, die Bildqualität wäre besser gewesen). Sollte ATI diesmal wieder solche Scherze veranstalten, wüsste ich lieber im Voraus Bescheid. Die Bildqualität ist bei den 1000ern auch sehr gut und für DirectX10 gibt es im Moment kein Spiel und wenn es sie gibt, ist die Karte eh wieder zu langsam.
Aber: schade, schade - keine Informationen. Leider auch keine Benchmarks, wie die neuen Midrange im Vergleich zu den alten 1000ern abschneiden. DAS wären mal News von ATI gewesen, die mich interessiert hätten. Die High-End Modelle mögen ja gut fürs Image sein, aber Geld verdiene ich doch eigentlich mehr über die breite Masse.

Übrigens, weil sich so viele wegen dem Stromverbrauch aufregen: Wieviele Transistoren hat eine CPU? Vielleicht 200-250? Diese Chips haben das dreifache an Transistoren! Da finde ich den Stromverbrauch eigentlich gar nicht mal so schlecht, wie er immer dargestellt wird. Klar ist das eine Milchmädchenrechnung, aber man darf nicht vergessen, das diese Chips anscheinend wesentlich komplexer sind und deshalb durchaus mehr Verlust auftritt. Absolut gesehen mag die Zahl hoch sein, aber relativ ist sie gar nicht mal so schlimm.
Damit will ich sagen: Verbraucht z.B. ein Kleinwagen 9l ist er immer noch sparsamer als ein Oberklassemodell. Aber er ist deswegen nicht sparsam. Verbraucht das Oberklassemodell 11l, ist er zwar nicht sparsam, für seine Leistung aber auch kein Verschwender.
Für die Umwelt bleibt aber: Das Oberklassemodell ist schlechter, obwohl es sogar mehr Leistung pro Liter erbringt.
Oder anders: Eine CPU muss nicht sparsamer sein, nur weil sie weniger verbraucht.
 
Zuletzt bearbeitet:
ryuko schrieb:
alle reden immer davon das ati zu spät dran ist,ich sage nv war zu früh und hat kein gutes produkt gebracht

Völlig richitg.

Die karte an sich ist natürlich nicht schlecht, aber treiber usw nix vorhanden....

Mann kann genauso sagen wie ATI mit der X1900 schneller war --> Nvidia hat aber schon lange gebraucht bis sie was schnelleres hatten!

das geht immer hin und her und man kann nicht sagen, der ist hinten, oder der ist hinten, einer is IMMER hinten!:D
 
~BlackHawk~ schrieb:
ich find es toll wie viele trolle sich hier wieder rumtreiben und die ganze zeit schreien das die karte zu groß ist. da muss doch irgendwas im gehirn überschwappen wenn sie 30 cm lesen so dass das OEM föllig aussen vor bleibt. das folgende und entscheidende RETAIL und 24cm (was im übrigen run4 cm kleiner als die 8800gtx ist) wird dann völlig ignoriert da die karte ja bekanntlich 30cm groß ist.
ich sag nur traurig was aus unserem deutschland aus intellektueller sicht geworden ist!
bei so manchen kommentaren muss ich mich echt fragen warum dieser mensch das essen und trinken noch nicht verlernt hat.

Sehr richtig. Es stand bisher in JEDER News zur R600, dass die OEM Karte 30 cm lang sein wird (wenn man selbst Rechner zusammenbaut -etwa 95% der User hier- wird man die wohl nur bei eBay bekommen oder vielleicht in einigen wenigen Shops) und nicht die zu kaufende Karte. Außerdem sind die Kartenlängen identisch, nur die Größe des Kühlers sind verschiedenen. Das wurde in einem älteren Thread von einem User schon erwähnt.

Edit:
40910.jpg
 
Zuletzt bearbeitet:
Ach Gott!

Wahrscheinlich vorläufige Specs.

64 Unified-Shader (Wohl aus 2 Shader bestehend! Von 9 bis 15 Flops!)
32 TMUs
16 ROPs
etwa 800Mhz Coretakt
etwa 1100Mhz GDDR4
512 Bit SI

So eine Rechnung bei 800Mhz:

25600Mtex/s
12800Mpix/s

64 x 9 bis 15 FLOPs x 0,8 = 460,8 Gflops bis 768 Gflops

ODER:

96 Unifiedshaders (wohl mit 9 Flops!)
24 TMUs (könnten wie beim G80 Bi-TMUs sein!)
16 ROPs (eigentlich sollten es dann 12 sein...^^)
etwa 800Mhz Coretakt
etwa 1100Mhz GDDR4
512 Bit SI

Noch eine Rechnung:

38400Mtex/s mit BI-TMUs, ohne 19200Mtex/s
12800MPix/s oder 9600Mpix/s

96 x 9 x 0,8 = 691,2 Gflops

mfg Nakai
 
Zuletzt bearbeitet:
Die betreffenden Leute sind einfach zu bescheuert oder zu faul (vielleicht auch beides), eine news mal richtig bis zum Ende zu lesen, den Inhalt zu verstehen und dann vielleicht auch noch richtig zu interpretieren. Stattdessen wird einfach drauflos gepostet, auch wenn der comment weder Hand noch Fuß hat :freak: .

Auf dem screenshot oben ist schön zu sehen, in was sich die OEM-Version unterscheidet: sie ist einfach um das Stück länger, dass der Lüfter einnimmt. Man sieht ja deutlich, dass das PCB schon längst zu Ende ist und der eigentliche Lüfter quasi im Freien schwebt.

Mfg
 
Zurück
Oben