News Alle Details zu ATis Radeon 5000er Serie

Killerdingo schrieb:
hatt irgendwie gedacht (gehofft) die neue serie hätte endlich 512 bit speicherinterface... aber wieder nur 256. naja benchmarks abwarten.

wieso 512bit speicherinftaface? sind alle so Nvidia behaftet,dass man alles einfach mit brachialier offensichtlicher gewalt erreichen muss. dank GDDR5 ist bereits bei der RV770 genug speicherbandbreite vorhanden, und die neuen ATI´s takten beim RAM 50-60% höher,dh die Speicherbandbreite steigt genau um diese Prozentsatz..wieso dann noch 512bit GDDR5?

was das bringt, hat man bei der HD2900 gesehen, google es mal.


gruß
 
ich glaub das checkt hier keiner....ich sag es mal so
GDDR5 & 256Bit = GDDR3 & 512Bit

und da brauchste noch lange kein 512Bit bandbreite bei den werten und herzzahlen mit dem der GDDR5 arbeitet...
 
Na Prost Mahlzeit... unter 200 W und guten 100°C wird da kaum was gehen >_> Mal abgesehen davon, dass die Karte _ANSCHEINEND_ in kaum ein Gehäuse passen wird.
Danke fürs Gespräch, Nächster bitte (also nVidia), vielleicht kann der es ja richtig.
 
erstmal Nvidias "antwort" abwarten. Alles andere ist reine spekulation. Wie war es den bisher. Erst hat AMD seine karten gebracht. Dann Nvidia. Und die haben dann immer noch einen draufgesetzt. Zum GT300 gibts ja noch sehr wenig infos bisher.
 
Zuletzt bearbeitet:
Wie hoch ist die Idle consumption bei HD4870 und HD4890? 60W für letztere und 90W für 4870 wenn ich nicht Irre?

Wenn die Angaben, 27W Idle consumption, in den News richtig sind, wäre das ein riesiger Schritt nach vorne.

Alles was mir jetzt noch fehlt ist ein Press release von Sapphire, eine HD5870 Toxic Version mit 2GB RAM. Oder anders gesagt, eine High-End Karte neuster Generation die lautlos ist und nur sehr wenig Strom verbraucht wenn sie nicht Arbeitet(3D).
 
@edmih23: Selbst neuen Anschlüsse müsste es am Mainboard dann geben eher mehr Spannung oder mehr Pins beim Hauptanschluss.
 
Eon-Deon schrieb:
Ein Aufpreis bei PC Spielen? Die Spiele sind jetzt schon viel zu teuer. Ich kaufe immer weniger. 50€ für ein Spiel ist Wahnsinn in meinen Augen.
Es gibt Zeiten (so Anfang der 90s) da haben PC Spiele gut und gerne mal 150DM gekostet, ein paar Perlen für 200DM waren auch dabei, dabei waren die Produktionskosten weit geringer.
Und die Privatkopien waren nicht so ganz verbreitet wie heute.
Und das ist auch einer der Gründe warum immer mehr Entwickler für Konsole entwickeln, der Kopierschutz ist von Natur auch besser und es gibt weit weniger Privatkopierer.
 
Ycon schrieb:
Na Prost Mahlzeit... unter 200 W und guten 100°C wird da kaum was gehen >_> Mal abgesehen davon, dass die Karte _ANSCHEINEND_ in kaum ein Gehäuse passen wird.
Danke fürs Gespräch, Nächster bitte (also nVidia), vielleicht kann der es ja richtig.

Die Karte ist kürzer als eine GTX280, ähnlich lang wie eine GTX260 und die hat wohl in jedes Gehäuse gepasst.
Ich würd mich zuerst informieren bevor ich irgend nen quatsch poste.
Zudem ist der STromverbrauch ähnlich wie bei der HD4890, die leider im Ref. Design zu laut war.
Kühlertechnisch sollten sie diesen Missstand hoffentlich entfernt haben. Also übertreib nicht so.
100°C ? *g*
 
Whoozy schrieb:
Schaffe89: hast du ne Quelle, was die Länge angeht ?

Denn auf dem Bild sieht die Karte schon verdammt lang aus......

Der PCIe x8 Anschluss ist doch genormt. Hat nicht jemand ein nettes Grafikprogramm und kann die Länge der Karte errechnen? ;)
 
>Kaoznake
@Stromverbrauchsmeckerer: Ich kanns echt nicht verstehen, es gibtdoch immer mehr Power mit immer weniger Strombedarf.

Nein, es gibt immer mehr Power mit relativ gesehen niedrigerem Stromverbrauch, aber absolut gesehen höherem Stromverbrauch. Und das ist es, was manche einfach stört; mich übrigens auch.

Ich werde eine Karte mit 170 Watt Verbrauch einfach nicht kaufen, das war schon bei der Hd4870 so. Die Leistung dürfte gewaltig werden, dagegen ist nichts zu sagen. Aber es ist wirklich müßig, dass man sich hier immer anfeinden lassen muss (nicht persönlich gegen dich), wenn man "vernünftige" Karten mit einem absoluten Verbrauch um die meinetwegen maximal 120 Watt haben wollen würde. Dann kämen nicht ständig diese Threads mit "reicht mein Netzteil XYZ"...

Zum 100. Mal: Es geht beim absoluten Stromverbrauch nicht darum, die Umwelt zu retten. Es geht um Abwärme, einen leisen PC-Betrieb und die Kühlbarkeit der Graka als solcher und nicht zuletzt deren Peripherie, die ebenfalls aufgeheizt wird. Dazu gehört dann das Netzteil, dass man unter Gefahr und Garantieverlust modden müsste, wenn es sehr(!) leise sein soll. Denn passive Netzteile gibt es "nur" bis ca. 460 Watt (Nightjar, Silverstone).

Ergo: Diese Generation ist leider nichts für viele ITX oder µATX Rechner, obwohl die GPU geshrinkt wurde und obwohl die Karten absurder Weise Namen von Bäumen tragen. Da hätte man etwas Anderes erwarten können.

Ist das schlimm?
Nein ist es nicht, denn die Leistung der amtierenden Karte reicht vielen völlig aus. Bspw. die der HD4770. Wer sowas sucht wird sich also mit der HD5770 mit 1Gig Ram begnügen müssen. Hoffentlich wird diese nicht zu lang werden.

Schade, dass die Leute immer aggressiv aneinander vorbei reden bei diesem Thema.

Die Sülze, dass ATI überlange Grafikkarten baut, kann ich wirklich nicht mehr hören eine 8800gtx oder GTX280 sind noch ein kleines Stückchen länger als eine HD5870 und die passen auch in die PC´s.
In meinen nicht. Also keine Allaussagen ohne Grundlage bitte.
 
Zuletzt bearbeitet:
Man kann es ja ungefähr so ausrechnen. Wenn man weis wie lang der PCIe anschluss ist dann kann mans ungefhähr machen.
 
Gamer.Gamer schrieb:
Man kann es ja ungefähr so ausrechnen. Wenn man weis wie lang der PCIe anschluss ist dann kann mans ungefhähr machen.

zwobot schrieb:
Der PCIe x8 Anschluss ist doch genormt. Hat nicht jemand ein nettes Grafikprogramm und kann die Länge der Karte errechnen? ;)

Whoozy schrieb:
Schaffe89: hast du ne Quelle, was die Länge angeht ?

Denn auf dem Bild sieht die Karte schon verdammt lang aus......

Siehe hier, Google hat geholfen ;)

Code:
Anhand der Länge der PCI-E-Kontakte haben wir eine Gesamtlänge von rund 26 Zentimetern gemessen - wir halten Sie auf dem Laufenden.

http://www.pcgameshardware.de/aid,6...kkarten-Update-Mehr-Details/Grafikkarte/News/

/edit
Vergleichswerte
Zotac GTX280 Amp! (27cm, Maß von T3D)
HD3870X2 (27cm, Maß von T3D)
9800GX2 (27cm, Maß von T3D)
Ref. GTX280 (26,7cm, Maß von THG)
Zotac GTX280 (28cm, Maß von CB - GTX280 SLI Test Juni 2008)
und der Post von rumpel01 zur 8800GTS 640, GTX260 + HD4870 https://www.computerbase.de/forum/threads/laengenvergleich-8800-gts-gtx-260.441951/#post-4475866
 
Zuletzt bearbeitet: (/edit)
datvader schrieb:
Muss doch möglich sein eine 5830 oder 5770 noch dieses Jahr rauszubringen, vielleicht ist es sogar erforderlich, wenn nvidia gleich alle Bereiche abdeckt.
Nvidia wird gleich alle Bereiche Abdecken. Low-End wird die 10400GT übernehmen ;)

edmih23 schrieb:
Könnte mir vorstellen, dass das mit Nvidia in diesem Jahr ein Flop wird :D
Weil Ati hat ja mit dieser Generation sehr viel Werbung gemacht, und regelmäßig Infos geäußert, aber von Nvidia hört man ja gar nichts :)
Naja. Man hat eigentlcih nur SPekulationen glesen. Infos von AMD direkt waren sehr rar.

Zwirbelkatz schrieb:
Nein, es gibt immer mehr Power mit relativ gesehen niedrigerem Stromverbrauch, aber absolut gesehen höherem Stromverbrauch. Und das ist es, was manche einfach stört; mich übrigens auch.

Ist das schlimm?
Nein ist es nicht, denn die Leistung der amtierenden Karte reicht vielen völlig aus. Bspw. die der HD4770. Wer sowas sucht wird sich also mit der HD5770 mit 1Gig Ram begnügen müssen. Hoffentlich wird diese nicht zu lang werden.
Zu deinem 1. Punkt: Doch es gibt immer merh Leistung bei geringerem Stromverbrauch. Vergleich mal die HD 4670 mti der X1950XT. Wesentlich mehr Leistung und wesentlich weniger Stromverbrauch. Es ist nur natürlich, dass die Grafikkartenhersteller die Maximale Performance aus ihren Karten raus holen wollen, da sie nicht nur die Käuferschicht bedienen wollen, die sparsame Karten wünschen, sondern auch die, die brachiale Leistung um jeden Preis wollen.
2. Es wurde schon oft behauptet, dass die Lesitung von irgendwelcher Hardware vollkommen ausreicht. Das war zum Beispiel bei der HD 3870X2 der Fall. Trotzdem wurde die HD 4870X2 oder sogar die GTX 295 gekauft. Genau so ist es auch jetzt. Die Leistung einer HD 5870 X2 braucht angeblich niemand, aber wenn sie da ist wird sie doch komplett genutzt.
 
Naja, lt Semi-Accuarate sollte NV dieses Jahr nur in der Lage sein Rebrands rauszubringen... da ich nicht schon wieder doppel posts betreiben will, verweise ich zum bereitgestellten Link im 5870/GT300 Thread...
 
Wenn die neuen AIT Karten beim Spielen 200Watt verbrauchen ist das nicht gerade erfreulich. Aber die Hauptsache ist das doch das sie nicht auch noch 100Watt im Leerlauf verbrauchen.

30 Watt im Leerlauf, das ist für eine derartige Power Karte absolut Revolutionär!
 
Nun will ich auch nochmal schnell was zum Stromverbrauch loswerden. Ich bin selbst ein Nutzer eines Passiv-Netzteils (450Watt Nightjar). Und ich möchte dieses verdammt geile Teil auch noch weiter mit neuer Hardware bestücken können ohne dass das Netzteil schlapp macht.
Natürlich habe ich mt meinen 450 Watt und den 32A auf der 12V-Schiene noch Luft nach oben, doch sollte es wirklich in Zukunft bald möglich sein, das bei steigender Performence die leistung der Karten im Full-Load-Mode gesenkt werden können. Jetzt sieht es zwar so aus, das immerhin die Leistungsaufnahme fast gleich geblieben ist, was schon mal sehr gut ist, aber hoffentlich geht es bald noch besser...

Und zum Idle-Mode: Natürlich ist es "toll", das eine AMD/ATI karte hier "nur" noch 27Watt verbrät. Nur warum muss so eine Karte im Windows mehr verbrauchen als eine Onboardkarte? Eigentlich müssen sie in dem Zustand das gleiche leisten und ich brauche für meinen Web-Browser oder Office-Kram keine aktiven 2.000.000.000 Transistoren. Vielleicht gibt es irgendwann die Möglichkeit die Karten im IdleModus soweit zu deaktivieren, das sie für den Rudimentären Betrieb im Betriebssystem vielleicht nur noch 5-10Watt verbraten. Das wird jetzt nicht mit der HD5800 möglich sein, aber in Zukunft sollte dies eine gute Richtung für eine sinkende Leistungsaufnahme der Karten sein.
 
Wie soll dann eigentlich eine HD 5870 X2 realissiert werden, wenn AMD schon von der HD4890 auf Grund der zu hohen Abwärme und des zu hohen Stromverbrauchs abgesehen hat?

Noch interessanter: Wird es eine Dualgrafikkarte auf Basis des (High-End Modells des) G300 geben? Die wird mit über 500mm² wahrscheinlich auch nicht sparsamer werden und ist es dann überhaupt noch möglich ne X2 zu bauen?

Ich fände es jedenfalls lustig, wenn Nvidia jetzt die gleichen Probleme mit GDDR5 (bzw dem Speichercontroller) hätten wie AMD mit der HD 4000 Serie^^
 
fromdadarkside schrieb:
Was würden denn die Leute bei einem Auto sagen, das erst 100 PS schafft bei 5l Verbrauch, in der nächsten Generation 140 PS hat bei 7l Verbrauch?? Das würde niemand kaufen, Fortschritt ist was anderes.
Sorry wenn die meinungen hier stark auseinander gehen, aber beleidigen muss man deswegen lange nicht!

Stimmt in der Autoindustrie gibts keinen Fortschritt. Wenn ich seh das mein favorisiertes Auto, ein 79er Opel Rekord 2000S einen Verbrauch von 13,5-14L auf 100km bei 100PS hat... Und ich würd ihn mir dennoch kaufen, in dem Fall wegen der Optik und weil ich Oldtimer mag. Verglichen damit sinkt der Verbrauch bei Grakas EXTREM ;)

Masterchief79 schrieb:
(wovon ich aber ausgehe, immerhin ist BQ ne Marke)

Marke =|= Immer gut
Wenn dus so willst ist das von allen gebashte LCPower auch ne Marke. Nur weil etwas MArke ist heissts nciht automatisch dasset gut ist.

MEDIC-on-DUTY schrieb:
Da wir aktuell eher einen Überhang an Leistung bei Anbetracht der verfügbaren Games haben, ist das Thema Lautsträrke und Stromverbrauch wesentlich wichtiger als die Diskussion um DX11 und 50% +/- X gegenüber nV.


Jedoch ist es gut zu sehen, dass ATI nV wieder die Stirn bieten kann, wenn es um die Performancekrone geht. Das hat für die Käufer der bestehenden Kartengenerationen nur Vorteile... wobei das Treiberchaos von ATI damit nicht aus der Welt ist.

Überhang an Leistung? Naja, ich kann mit meiner HD4870 Fallout 3 nicht auf max. zocken weil irgendwas limitiert (ok, könnte auch die CPU sein bei hohem AA, aber glaub ich eig nich)
Und das nur weil ich einen Monitor habe wie ihn sicherlich die nächsten Jahre viel mehr Leute bekommen werden: mit FullHD Auflösung. Und in der will ich auch zocken.

Was für ein Treiberchaos eig bei ATi? Jeden Monat ein neuer Treiber, alle Naselang einer für die alten Karten die eh nix mehr reissen und fertig. langt doch?

butterbloemchen schrieb:
@H€553:
ich werde mir sowieso keine kaufen - ich habe ja schon eine recht energieeffiziente Karte;-)

Mir geht es darum: die Hersteller dürfen erst gar nicht auf die Idee kommen, dass diese Boliden wirklich gefragt sind - sonst kommen die da nie von dem Gleis runter.

Wenn diese 150-250 Watt Monster keiner mehr kauft, dann stellen die die auch nicht mehr her.

Leistung ist nicht alles.
Sie sollten ganz klar vor Augen haben, dass dieser Tage Energieeffizienz über alles geht - und gehen muss.

Aber nachdem was ich hier so lese, interessiert sich niemand dafür.
Hauptsache Leistung.

Das kann es doch nicht sein.

Warum muss Energieeffiziens über alles gehn? damit die Stromanbieter wegen dem gesunkenen verbrauch die Preise erneut erhöhen um mehr Gewinn zu haben? Kanns doch nicht sein. Und an die ach so schlimme Klimakatastrophe glaub ich eh nciht, nachdem von Wissenschaftlern auf gleiche Art wie von den Klimabefrwortern "bewiesen" wurde das erst ein Temperaturanstieg kommt und dnn das CO2 steigt oder dass es zu Zeiten dr Eiszeit mehr CO2 gab als heute. Desweiteren wurde bewiesen das wir bisher eh in einer sehr kalten Zeit lebten, global und epochal betrachtet.
Und wenn du was für die Umwelt tun willst kauf die GLÜHBIRNEN, boykottiere Energiesparlampen, die in ihrer Produktion mehr verbrauchen als durch ihre gesamte Lebenszeit eingespart werden kann an Strom und die nur aufwändig zu entsorgen sind wohingegen Glühbirnen zu 100% recyclebar sind.
 
Whoozy schrieb:
Schaffe89: hast du ne Quelle, was die Länge angeht ?
5870t.jpg


pci-e ist mit 89mm genormt => 89 / 82,9 = 1,07358262 => 25,18cm x 1,07358262 = 27,0328cm
 

Ähnliche Themen

Zurück
Oben