News ATi-Partner bringen Radeon HD 4890 X2

LaZz schrieb:
Über Sinn und unsinn brauch man bei solch einem produkt nicht nachdenken

Eben. Solange die Hersteller glauben Geld damit zu verdienen kommt eine solche Karte halt.
Und dann ist da natürlich noch die Imagesache mit der Performancekrone - wobei deren Bedeutung in letzter Zeit ganz subjektiv betrachtet abgenommen hat.
Ich denke das liegt einerseits an den multi GPU Karten durch die die Bedeutung der Performancekrone geteilt wurde (schnellste GPU vs schnellste Graka) und zum anderen sicher daran dass durch die günstigen Highendkarten ala 4870/GTX260 einer 500€ enthusiast Karte lange nicht mehr die Bedeutung zu kommt die ihrerzeit zb X1900XT(X) / 7900GTX hatten.
 
Na auf die Karte bin ich mal schwer gespannt.

Speziell wie viel die an Watt ziehen wird und wie laut die wird.

Rein von der Leistung her, wirds wohl nichts stärkeres geben.
 
Wenn nen passender waküblock kommt hohl ich mir 2 davon!

Mein 1400 Watt Nt reicht bei 2 4870x2er auch locker...

ach und @ kreisverkehr!

Bei mir brauchen 2 Hd4870x2 zusammen bei crysis bench im durchschnett 410 watt... also laber keinen scheiß
 
Bei mir brauchen 2 Hd4870x2 zusammen bei crysis bench im durchschnett 410 watt... also laber keinen scheiß
Nur die beiden Karten oder der gesamt Rechner? :lol: Beides ist ein bissl wenig ...
 
Hmmm, grade noch mal geschaut. Hatte nur Furmark im Kopf :D 400 Watt für zwei X2s kommt in Crysis ziemlich gut hin.
 
@ Kastlunger

bei ht4u.net ~370W, bei PCGH 369W...

Dann vergleiche mal bei PCGH den Crysis-Benchmark mit den Furmark-Werten, und du erkennst eine große Differenz. Gibt Spiele, die lasten die Hardware klar höher aus als Crysis

Hast du beide Grakas vermessen, das Gesamtsystem oder wie kommst du auf deine Werte? Ich hab mal kurz ne X2 und nen Zweikerner vermessen (Gesamtsystem) und bin bei Call of Juarez an die 450W gekommen.
 
Kreisverkehr schrieb:
Bei der Karte in der News handelt es sich aber um eine Karte mit 2GB pro Chip, nicht um 1GB/CPU wie bei der 4870 X2.

Borr warum liest denn hier keiner mal zu Ende, was ich geschrieben habe, und kommentiert es erst dann, wenn er es auch verstanden hat... :(

Ich weiß, dass es sich um eine Karte mit 4 GB (also 2 GB pro Chip) handelt. Mein Vorschlag war deshalb, lieber bei 2 GB (also 1 GB pro Chip) zu bleiben (und stattdessen die Anbindung zu verdoppeln). Und genau so habe ich das formuliert, was ist daran also so schwer zu verstehen? :confused_alt:

Ich zittiere nochmal:
Statt der 4 GB mit 256 Bit-Speicherinterface sollten sie lieber bei 2 GB bleiben und stattdessen auf 512 Bit umsteigen. Das wäre eine Verdopplung im Speicherdurchsatz, das gäbe also mächtig FPS.

Wenn mich jetzt also noch jemand kommentiert, dann bitte nur, wenn ihr auch meine Aussagen zu Ende gelesen und VERSTANDEN habt.

Ob mein Vorschlag jetzt bezüglich der Performance einen Sinn hat oder nicht, sei jetzt mal dahingestellt, aber es ist ja jetzt wohl nicht so formuliert, dass es keiner versteht.

Ich will hier niemanden angreifen, aber ich bin so langsam genervt, weil meine Aussage schon zum 3. Mal falsch verstanden wurde, weil sie nicht richtig zu Ende gelesen wurde, und ich mich daher rechtfertigen und klarstellen muss, was ich gesagt habe ^^
Das geht gewaltig auf die Tastatur :D
 
Zuletzt bearbeitet:
@Wuffi schrieb:
[...]
lieber bei 2 GB (also 1 GB pro Chip) zu bleiben (und stattdessen die Anbindung zu verdoppeln)[...]

Ja, hattest Recht, so hast du es geschrieben. Wohl nur überflogen und eingeschoßen

@Wuffi schrieb:
Ob mein Vorschlag jetzt bezüglich der Performance einen Sinn hat oder nicht, sei jetzt mal dahingestellt, aber es ist ja jetzt wohl nicht so formuliert, dass es keiner versteht.

Wenn mans so liest, wie es dasteht, versteht mans auch :rolleyes:
Dennoch: Ich bezweifle den Sinn dahinter, da Vram durch nichts als durch Vram zu ersetzen ist. Je mehr Rohleistung du hast, desto eher limitiert der Vram und bei einer X2 ist 1GB/Chip schon unterdimensioniert, spätestens nach einer Stunde zocken.
 
Ja das mag sein. Aber ich denke trotzdem, dass man 1 GB (pro Chip) nur mit HighEnd Games und hohen Auflösungen (24" aufwärts) vollkriegt... Ich hab jedenfalls ne 8800 GTX mit 768 MB Ram, und selbst damit kann ich Crysis auf nem 24" in 1920 mal 1200 und mit MsterConfig relativ flüssig mit 20 FPS spielen. Ich denke also, mit 1 GB sollte es da also wirklich kein Problem sein. Und 30 Zöller haben ja die wenigsten.
 
hui, hui, hui!

ich les hier immerwider was von

"energiesparen"
"verbraucht zuviel energie"

ist doch nonsens pisageschädigte !

der ERSTE energieerhaltungssatz sagt: ENERGIE kann nicht verloren gehen, sondern wird nur umgewandelt!

was das natürlich mit bezahlung und umweltbewußtsein zu tun hat, steht auf einem anderen blatt.

zum denkanreiz, folgende "aphorisme"

"99% der Menschen sehen das Geldproblem nicht. Die Wissenschaft sieht es nicht, die Ökonomie sieht es nicht, sie erklärt es sogar als nicht existent... Solange wir aber die Geldwirtschaft nicht als Problem erkennen, ist keine ökologische Wende möglich."

Hans Christoph Binswanger (*1929), schweiz. Wirtschaftswissenschaftler, Professor an der Univeristät St. Gallen"
 
Nachdem ich heute bei heise diesen Beitrag gelesen habe, denke ich, dass "abwarten und Tee trinken" an dieser Stelle eher angebracht ist, als Vorfreude auf ein Produkt, das es eventuell so schnell doch nicht geben wird. ;)
 
Ich bezweifle den Sinn dahinter, da Vram durch nichts als durch Vram zu ersetzen ist. Je mehr Rohleistung du hast, desto eher limitiert der Vram

Korrekt, das Problem ist weder die rohe GPU-Leistung, die Speichergeschwindigkeit noch die Speicheranbindung, es ist der VRAM.

bei einer X2 ist 1GB/Chip schon unterdimensioniert, spätestens nach einer Stunde zocken.

Ich krieg den in allen modernen Games in einer Sekunde voll, wetten wir um meine Graka:lol:?

Wobei man sagen muss, dass die ATIs ein deutlich besseres VRAM-Management und zusätzliche 128 MB haben, was aber durch Microruckler wieder zu Nichte gemacht wird.

Ja das mag sein. Aber ich denke trotzdem, dass man 1 GB (pro Chip) nur mit HighEnd Games und hohen Auflösungen (24" aufwärts) vollkriegt

Zum 8. Mal: Post 130 lesen...

Und was sind bei dir Highend-Games? FarCry 2 und Crysis gehören jedenfalls nicht dazu, Spieltechnisch eine Katastrophe...
 
SchlachtVati schrieb:
hui, hui, hui!

ich les hier immerwider was von

"energiesparen"
"verbraucht zuviel energie"

ist doch nonsens pisageschädigte !
der ERSTE energieerhaltungssatz sagt: ENERGIE kann nicht verloren gehen, sondern wird nur umgewandelt!
was das natürlich mit bezahlung und umweltbewußtsein zu tun hat, steht auf einem anderen blatt.
ooh echt, bei jedem Thread wo es um dieses Thema geht, kommt so'n Besserwisser mit seinen 5.Klasse-Hauptschul-Kenntnissen und erzählt das Gleiche.
Mittlerweile weiß der Großteil hier, daß man Energie nicht verbrauchen kann und trotzdem wird es auch weiterhin so genannt werden. Also lass es doch einfach...
 
Ich finde es ok das ATI grünes Licht gibt. Wenn die Boardpartner es realisieren können, warum nicht. Auch das die Karte dann alle Rekorde sprengen wird, also neben Performance auch Abwärme sowie Verlustleistung ist relativ egal.

Wer ein Porsche fährt schaut auch nicht ob der nur 5~7 Liter auf 100Km verbraucht.

Die Karte wird sicher auch massig Käufer finden, denn schon die 4870X² hatte sich recht gut für die Boardpartner verkauft.

Für meinen Geschmack wäre eine schöne WaKü Anbindung perfekt für die Karte.

Bin auch mal gespannt wenn dann eine solche Karte bei Extrem Übertaktungsevents neue Scores einspielt.
 
naja wer es sich leisten kann, was micht stört ist das es immer mehr power gibt und diese mehr strom braucht und dabei gibt es immernoch diese Microruckler:mad:
 
Wieviel Käse manche Leute zusammenschreiben...oh man. Schlimmer als ne KiTa. Bin gespannt auf das Dingen auch wenns Leistungsmässig eher bekloppt ist. Mehr Leistung als die GTX295 bei gleichen/geringeren Verbrauch wäre ein Fortschritt...so eher *gähn*
 
die 295er wird einen kleinen Refresh erhalten und soll auf einen PCB gebaut werden, da es dann vermutlich auch eine WaKü geben wird denke ich, dass man diese dann auch übertakten kann. Somit dürfte es eine 4890X2 schwer gegen eine 295² haben bei weniger Verbrauch und ebenbürtiger Leistung.
 
WaKü gibt es jetzt schon...auch mit den 2 PCBs.
 
ok wusste ich nicht. aber der preis ist utopisch, ich denke, dass die Karte mit einem PCB günstiger wäre.
 
Zurück
Oben