News Kommt auch eine ATi Radeon HD 5850 X2?

@ Schinzie - jetzt wirds nervig. ich hab dir Spiele aufgezählt die mit 512MB VRAM Probleme machen (da du ja behauptet hast, dass das nur GTA4 und FarCry2 Probleme machen) und dann schreibst du aufeinmal - ja da sieht man ja, dass es keine Unterschiede zwischen 1GB und 2GB gibt *kopfschüttel*

Das nennst du keinen Unterschied...?

http://i36.tinypic.com/1z2lzch.jpg
http://i34.tinypic.com/17xu9g.jpg
http://i37.tinypic.com/117zrlc.jpg
(von 2560x1600 in Verbindung mit AA ab 4x red ich erst gar nicht)

Und das sind nur ein paar deiner Links. Selbst welche rauszusuchen ist mir ehrlich gesagt zuviel Arbeit für einen Ignoranten wie dich (nicht bös gemeint).
Ansonsten ist die 2GB Variante (z.B. bei den ATI Vergleichen auch immer vorne. Hab mir allerdings nur die Vergleiche ab 1920x1080 angesehen. Mal mehr mal weniger, kommt halt immer drauf an welches Game bei welchen Settings)

Mit den Tweaktown Links weis ich nicht was du mir sagen willst, außer das eine HD5870 maßig an Rechenpower hat, und 2 davon löogischerweise noch mehr. Was mir die Links bzgl. VRAM-Verbrauch bzw. Limit sagen sollen ist mir ein Rätsel.

Mir ist weiters klar, dass CPU Limit nix damit zu tun hat. Ich seh aber immer wieder leute die schreiben, dass das und das Spiel auf Ihrem System läuft fernab von jeder Realität. Begründed wird dann manchmal mit "tja dann liegts bestimmt an deiner schlechten CPU" - solchen Kommentaren wollte ich vorbeugen.

Ich klink mich an der Stelle aber aus, ich hab schon viel zu oft Zeit mit solchen Diskussionen verschwendet. Ich hab meine Meinung, du hast deine. Von mir aus belassens wir dabei :cool_alt:
 
Zuletzt bearbeitet:
@ Demonless

Wenn du nur ein bisschen überlegen würdest, würdest du sehen, dass die geringen ergebnisse in den Minimum FPS niemals an zu wenig V-Ram liegen. Zudem liegen Average-Werte fast alle gleichauf. Also können die Einbrüche absolut nicht von längerer Dauer sein. Wenn man überhaupt von Einbrüchen sprechen kann. Wenn es denn wirklich welche währen, dann würden sich die Avarage Werte unterscheiden, was sie aber nicht tun. Anzumerken ist auch, dass eine HD4890VaporX 2GB höher getaktet ist, als eine HD4890 Standard.
BTW ich rede von 1GB vs 2GB (ATI). Zudem rede ich von 1GB vs 896GB (ATI/Nvidia).
Siehe GTX275 896mb --->Keine Einbrüche, d.h. hier limitiert nicht der V-Ram. Die GTX285 mit schlechterem Speichermanagement müsste nach deiner Theorie also auch einbrechen. :freak:
Da der V-Ram bei einer HD4890 besser verwalten wird ist das schlicht ein kleines Treiberproblem bzw es entstehen niedrigere minimum FPS.
In anderen Spielen hat da Nvidia mehr das nachsehen.
Hier hat man nen schönen Sündenbock gefunden. Sofort wenn die FPS, wenn auch gleich Minimum FPS, in den Keller gehen, obwohl andere Karten mit weniger V-Ram keine Probleme haben, wird der V-Ram verantwortlich gemacht.
DAs ist doch echt lächerlich.
Ich muss Schinzie in allen Belangen recht geben. Kasmopaya hat wohl bei mehreren CB Usern mit seinen Unwarheiten Panik oder was weiß ich ausgelöst.

Bei 512MB vs. 1GB ist man sich ja einig, dass in vielen Einstellungen 512MB zu wenig sind.( Was wiederum aber auch nur in etwa 30% der User betrifft)---Grob geschätzt.
Wer hier verbreitet, dass ATI ihre HD5870 besser mit 2GB, statt 1GB hätte bringen sollen, liegt falsch und verbreitet schlicht Unwarheiten.
Eine HD5870 2GB ist ein Nischenprodukt, welche sich sogut wie nicht verkaufen wird, da 2GB V-Ram für die meisten User zuviel sind. Also schlichtweg eine Fehlinvestition bei ATI.
Ich glaube hier wäre mal ein aufschlussreicher Test seitens CB vonnöten. Um mit Lügen und Übertreibungen hier in CB mal ordentlich aufzuräumen.

Letztendlich will ich meine Aussage aber nicht gegen mehr V-Ram richten.
Eine 2GB HD5870 hat eine Lebensberechtigung. Vor allem für Extrem User, die mit Mods, hohen Auflösungen, vielleicht noch mit SSAA rumwerkeln.
Die Leistung wäre aber für diese Gefilde eh schon zu wenig, also müssten 2 HD5870 her.
Hier würde sich für extrem User eventuell eine 2GB Karte rentieren, auch für später.
Der Trend geht klar in die Richtung mehr V-Ram. Eine HD5870 x2 wäre mit 2GB Ram pro GPU schon eher eine Option im Vergleich zu einer einzelnen HD5870 1GB.

Hier könnten sich die 2GB V-Ram für speziellere Einstellungen mit SSAA und Mods durchaus lohnen.
Bzw für 2600x1600 8xAA usw...
Eventuell auch für Eyefintiy, doch hier wird auch die Leistung zu wenig sein um mit AA fahren zu können.
Da muss dann schon ne HD5870x2 @4GB her also jeweils 2x 2GB damit es sich rentieren könnte.

//Edit: Auch wenn ich nicht ganz lieb war, musste das mal in aller Deutlichkeit gesagt werden.
Ich bedanke mich auch bei Schinzie, der dagegengehalten hat.^^
 
Zuletzt bearbeitet:
Jetzt gehts rund bei ATI.
Nvidia wird es dieses mal richtig schwer haben bei der Einführung des GT300, den da wird ATI die Preise nach unten senken.
 
Würde auf jeden Fall wieder Ati kaufen.

Die HD5850X2 wird wahrscheinlich wieder nur als Partnerkarte erscheinen, d.h. von den Parteners selbst entwickelt.
 
Stromverbrauch => Interessiert Gamer doch nicht wirklich? Wer auf den Verbrauch schaut, der kauft sich keine HighEnd Karte.
Was mich interessiert: Lautstärke & Wärme!
Physik ist nicht deine Stärke oder? Hier mal was zum einlesen: https://www.computerbase.de/forum/t...ximaler-performance-watt.629455/#post-6550327
Ich muss Schinzie in allen Belangen recht geben. Kasmopaya hat wohl bei mehreren CB Usern mit seinen Unwarheiten Panik oder was weiß ich ausgelöst.
Ach jetzt bin ich wieder schuld :rolleyes:

Als nochmal zum mitschreiben es gibt hier 2 Lager. Die einen wollen eine HD 5870 nicht lange behalten ca. 1 Jahr dafür geb ich grünes Licht für die 1GB Version. Dann gibts die "normalen" die wollen ihre teure High End Karte ein paar Jahre länger fahren die wollen 2GB. Mit Eyefinity und SGSSAA fang ich jetzt nicht an das ist sowieso klar-> 2GB

Der Trend geht klar in die Richtung mehr V-Ram.
Unglaublich du hast es ja doch kapiert;)
 
Zuletzt bearbeitet:
Nur dass für SGSSAA die Leistung bei hohen Auflösungen ohnehin nicht reicht. Außer man will ältere Spiele Aufmöbeln. Call of Duty 4 wäre da ein Schmankerl. Aber das sollte man selbst @ 1280x1024 mit 1GB V-Ram locker hinbekommen. Hoffe mal die nächst höhere Auflösung klappt da auch noch, bevors Leistungstechnisch nicht mehr ganz reicht.
BTW Ich will jetzt nicht den schwarzen Peter an die Wand malen, aber ich gehe mal davon aus, dass du etwas schuld bist. Ist ja erfreulich, dass du einlenkst.
 
Zuletzt bearbeitet:
Schinzie schrieb:
bis auf FarCry2, GTA4 und spielen mit texturmods kann man auch alle spiele mit einer 512mb 4870 gut spielen.

Schaffe89 schrieb:
Bei 512MB vs. 1GB ist man sich ja einig, dass in vielen Einstellungen 512MB zu wenig sind.

Anscheinend ist man sich da doch nicht so einig....
Mir ging es im wesentlichen darum diese Aussage klar zu stellen - was auch immer "gut" heißen soll (bei meiner Auflösung 1920x1080 hieße das bei jedem 2. meiner Spiele zumindest auf mittlere Details runterzugehen wobei ich AA komplett vergessen könnte).

Wie ich bereits vorher gesagt hatte. Dem Durchschnittsuser wird der VRAM wohl erst in gut einem Jahr immer öfter ausgehen. Was dann natürlich sehr ärgerlich ist wenn man jetzt sehr viel Geld für eine HD 5850X2 bzw 5870X2 ausgibt (und man eben genau weiß, dass noch genügend Rechenpower vorhanden wäre). Leute die aus purer Absicht sich ein Kaliber ala 5870 bzw. 50X2 jedes Jahr kaufen und denen somit egal ist, dass die Karte jetzt nur 1GB VRAM haben, kann ich sowieso nicht ernst nehmen. Wer soviel Geld hat solls ruhig ausgeben ;-)

Und wie ich ebenfalls schon vorher gesagt habe, ist eine Dual GPU der neuen Generation im Moment des Kaufes eben nur für ein paar wenige spezielle User (Verwender von High Res. Packs, speziellen AA Modi und extremen Auflösungen) ein Fehlkauf (wenn diese 1GB VRAM besitzt).

Ansonsten hab ich in meinen vorherigen Posts nichts anderes gesagt als du Schaffe89.
 
Zuletzt bearbeitet:
Teilweise liegt es eben außerhalb meiner Vorstellungskraft wie man sich solch teure Luxusgüter in der High End Klasse jedes Jahr neu kaufen will bzw.kann. Verdiene auch nicht schlecht, aber sowas würd mir nicht im Traum einfallen...

Aber gut PC ist trotzdem noch ein günstiges Hobby, wenn man es mit Auto Bastler vergleicht.
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
Unglaublich du hast es ja doch kapiert

Wenn hier jemand eine vernünftige Diskussion starten will, dann bist es sicherlich nicht du.
Unnötiger Kommentar. Ich denke du hast einiges nicht kapiert oder willst es nicht verstehen, aber es ist ja sowieso egal. Die Frage ist was du meinst mit deinem Kapiert? Für mich scheint es so, als wenn du immernoch auf deiner HD5870 2GB beharren würdest und nichts anderes empfehlen kannst.



Kasmopaya schrieb:
Teilweise liegt es eben außerhalb meiner Vorstellungskraft wie man sich solch teure Luxusgüter in der High End Klasse jedes Jahr neu kaufen will bzw.kann. Verdiene auch nicht schlecht, aber sowas würd mir nicht im Traum einfallen...
Frag doch mal die Kunden, die sich damals eine 9600GT mit 2GB V-Ram gekauft haben. Deine Sichtweise ist sowas von Engstirnig.


demoness schrieb:
Anscheinend ist man sich da doch nicht so einig....

Doch ist man. Es gibt auch Leute die über den Tellerrand schauen und nicht nur Crysis Warhead/Crysis/Far CRY2 und GTA4 spielen. Schinzie redet von gut spielen. Far CRY 2 habe ich mit einer HD4850 512mb auch "gut " spielen können.
Aber die Diskussion führt sowieso zu nichts, da es ja keine Zusammenkunft zu geben scheint.

Kasmopaya schrieb:
Als nochmal zum mitschreiben es gibt hier 2 Lager.

Ich sehe ein Lager von normalen Zockern, die gerne die BQ hochdrehen. Demnach 1GB reichen.
Ich sehe ein Lager von zockern die die BQ soweit hochdrehen+ hohe Auflösungen fahren, bis die Rohleistung einer Karte overall schon zu wenig ist um flüssig spielen zu können. Sich aber hinterher, obwohl die Karte eh nichts mehr reißen kann, sich darüber aufregen zu wenig V-Ram gehabt zu haben.
 
Zuletzt bearbeitet:
Die Monitor Flotte wird kaum mehr als 3 Monitore groß sei, wenn wirklich jemand vor bestellt hätte, was ich nicht glaube.
Die Adapterkosten um 3 Bildschirme zu realisieren sind hoch, aber nicht unbezahlbar. im Vergleich zur Grafikkarte selbst. Wo man früher noch ne 2te brauchte.
Somit ist Eyefinity unattraktiver geworden, als es zuletzt aussah.
Nutzen kann mans trotzdem. Passende TFT´s werden auch schon hergestellt.

Als Verzweiflungstat? Oh man.
 
-sheep- schrieb:
Kinder,
ihr weicht mal wieder total vom Thema ab.
Die einen meckern über die Namensgebung und die verwirrende Vielfalt an Karten.
(Ja 2 Karten ist schon echt viel ;))
Und die anderen streiten sich über den VRAM.

Der Fred gleicht ab S.3 1000 anderen, da diese auch immer in Gezanke enden.

Oder liege ich da jetzt so falsch?

Gruß -sheep-
*vor Steinen wegduck*
*den ersten Stein werf* :)
Aber gerade dieses "Gezanke" macht doch den Unterhaltungswert aus, oder nicht? Und in der Regel findet es ja auch auf einem recht hohem Niveau statt, anders als in anderen Foren.

Kurz zur Namensgebung, es geht mir persönlich ja gar nicht um die Namensgebung, viel eher darum, daß man wirklich versucht, jeden Bereich mit fünf (absichtlich übertrieben!) Karten abzudecken. Wenn man sich nur einmal anschaut, was bislang angekündigt ist:

5750 ---> untere Mittelklasse
5770 ---> mittlere Mittelklasse
5850 ---> obere Mittelklasse
5850 X2 --- > untere Oberklasse
5870 ---> mittlere Oberklasse
5870 X2 ---> obere Oberklasse

Die Leistung wird doch in jedem Bereich relativ ähnlich sein, oder meint jemand, daß zwischen einer 5770 und einer 5850 wirklich 15 - 20% Unterschied sein werden? Und es fehlen ja noch die Einsteigerkarten und dann eventuell sowas wie eine "Green Edition".

Michi.G85 schrieb:
Zum Sinn oder Unsinn einer X2/Multi GPU...
Geht doch bitte nicht immer von eurer Konfiguration aus. Es gibt eben Leute (wie mich) die etwas andere Auflösungen brauchen.
Vergiss aber nicht, daß Du einer sehr kleinen Minderheit angehörst. Ich kenne nur eine Person aus meinem recht großen Bekanntenkreis, die mehr als einen Bildschirm zum Spielen benutzt. In meinen Augen betreiben ATI und nvidia da nichts anderes als einen P...-Vergleich.

Über Mikroruckler möchte ich nicht wirklich diskutieren. Ich denke, die meisten, die dieses Argument vorbringen, haben noch nie SLI/CF ausprobiert. Ich hatte anfangs auch meine Zweifel, aber mir ist nichts in der Richtung aufgefallen...
Ich glaube nicht, daß man über die Existenz von Mikrorucklern diskutieren muss. Sie sind eigentlich in allen Tests aufgefallen und zumindest nvidia hat ja vor einiger Zeit ganz klar gesagt, daß man an dem Problem noch immer arbeiten würde.

Die weiteren Argumente:
Stromverbrauch => Interessiert Gamer doch nicht wirklich? Wer auf den Verbrauch schaut, der kauft sich keine HighEnd Karte.
In der heutigen Zeit ist der Stromverbrauch deutlich wichtiger als Leistung, zumindest sollte es so sein. Wir können natürlich alle Grafikmonster kaufen, die unter Last 300 oder mehr Watt verbrauchen, damit die Hersteller mit der nächsten Generation wieder mehr "Saft verballern" können. Aber ein wenig sollte man dann doch an die Umwelt denken. Und solche Argumente wie "Auf die 50 Watt mehr kommt es doch nicht an!" zeugen von einer unglaublichen Naivität, denn am Ende macht es die Summe aller PCs. Und davon gibt es dann doch ein paar.

Edith meint:
Und zum Thema Speichergröße, kann hier eigentlich wirklich niemand über den Tellerrand hinausblicken? CUDA und Stream brauchen Grafikspeicher, damit die Leistung stimmt. Und sowohl CUDA als auch Stream sollen mit DirectX 11 deutlich häufiger genutzt werden als heute. Insofern ist 1 GB deutlich zu wenig.
 
Zuletzt bearbeitet:
Und zum Thema Speichergröße, kann hier eigentlich wirklich niemand über den Tellerrand hinausblicken? CUDA und Stream brauchen Grafikspeicher, damit die Leistung stimmt. Und sowohl CUDA als auch Stream sollen mit DirectX 11 deutlich häufiger genutzt werden als heute. Insofern ist 1 GB deutlich zu wenig.
Zumindest einige GPGPU Programme brauchen Unmengen Vram, Folding @ Home braucht zb. nur 256MB hier eine kleine Auswahl: http://www.nvidia.com/object/cuda_home.html
 
homann5 schrieb:
"Auf die 50 Watt mehr kommt es doch nicht an!" zeugen von einer unglaublichen Naivität, denn am Ende macht es die Summe aller PCs. Und davon gibt es dann doch ein paar.

Ich nehme die sehr guten verbrauchswerte einer GTX285 (Idle) oder die noch besseren einer HD5870/5850 gerne mit.
High End heißt nicht High End Stromverbrauch.
Zumindest nicht im Idle und unter normaler Spielelast.
 
Ganz ehrlich: Wer braucht diese Karte?
Die X2 Karten sind sowieso nur für absolute Enthusiasten, mit min. Full HD Monitoren, gedacht. Die werden, wenn überhaupt, nur zur stärkeren
HD 5870 X2 mit jeweils 2GB greifen.
 
@damoness

die benchmarks hab ich verlinkt,damit du siehst,dass zwei 5870 bei den MinFps mit über 100% skalieren (wie ichs eigentlich beschrieben habe). Da CF aber in der Regel nut mit 60% skaliert, heißt das, dass eine 5870 durch die Bandbreite limitiert wird (bei den extremen auflösungen). und eigentlich noch bis zu 40% schneller wäre, wenn sie die Bandbreite hätte.

Und deshalb finde ich diese Vram diskussion schwachsinnig. Es gibt nicht mal anzeichen,dass eine 5870 mit 1gb irgendwo einbricht, trotzdem raten so viele von diesr ab? warum?

vor nem halben jahr hat niemand vor einer GTX275 mit 896mb abgeraten, nie fiel die Bezeichnung Vramkrüppel, jetzt kommt eine Karte die nirgends, aber auch nirgends langsamer ist als jegliches SingleGPU Nvidia pendant, selbst mit 2gb Vram, und einige schrieen sie wäre eine VramKrüppel. Woher nimmt ihr das?

Wenn schon die Bandbreite limitiert, wie soll dann der Vram limitieren?

und du siehst anhand deiner kopierten Benches, dass selbst die 2gb GTX285 eigentlich nirgends nennenswerte vorteile hat, selbst die 1gb 4870 hat nur in einer handvoll Konfigurationen und anwendungen wirkliche Vorteile gegenüber der 512mb Variante (was nicht heißt,dass ich jetzt sage 512mb wären genug).

CUDA lief bisher auch immer mit 1gb Vram, problemlos. Wers proffesionell nutzen möchte,der kauft sich auch eine professionele.

gruß
 
Arbiter Elite schrieb:
Ganz ehrlich: Wer braucht diese Karte?
Die X2 Karten sind sowieso nur für absolute Enthusiasten, mit min. Full HD Monitoren, gedacht. Die werden, wenn überhaupt, nur zur stärkeren
HD 5870 X2 mit jeweils 2GB greifen.

Brauchen scheint heutzutage nicht mehr das Thema zu sein, bei vielen jungen Leuten scheint die Grafikkarte ein Statussymbol geworden zu sein... :freak:
 
Schaffe89 schrieb:
Ich nehme die sehr guten verbrauchswerte einer GTX285 (Idle) oder die noch besseren einer HD5870/5850 gerne mit.
High End heißt nicht High End Stromverbrauch.
Zumindest nicht im Idle und unter normaler Spielelast.
Im Grunde hast Du ja Recht, aber ich kaufe mir doch keine High-End-Karte, weil sie im Leerlauf wenig verbraucht, sondern weil ich die Mehrleistung gegenüber einer Mittelklasse-Karte brauche (aus welchen Gründen auch immer). Dummerweise bedeutet High-End dann aber eben doch auch "High-End-Verbrauch". In Relation zur Leistung sind die Verbrauchsdaten natürlich gut, insbesondere bei den neuen ATI-Karten, nur interessiert das den Stromzähler nicht, für den gelten nur die absoluten Zahlen.
 
Zurück
Oben