Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Neue Informationen zu ATis Radeon-5000-Serie
- Ersteller Parwez
- Erstellt am
- Zur News: Neue Informationen zu ATis Radeon-5000-Serie
aemaeth
Banned
- Registriert
- Okt. 2006
- Beiträge
- 3.765
300€ finde ich jetzt auch nicht Teuer, habe 2007 für meine damalige XFX 8800GTX XXX 600€ gezahlt da war die GTX285 für 300€ ein Schnäpchen
Doch ich warte auch wie so viele auf Nvidia dann die Tests/Benches ..möge der schnellere gewinnen^^
mfg
Doch ich warte auch wie so viele auf Nvidia dann die Tests/Benches ..möge der schnellere gewinnen^^
mfg
Zuletzt bearbeitet:
F-Hörnchen
Lieutenant
- Registriert
- Juli 2008
- Beiträge
- 568
@latexdoll
Wo siehst du denn einen DirectX 10.1 Vorteil den ATI hatte ? Es gab nur eine Hand voll Spiele, die überhaupt damit umgehen konnten. Diese negative Entwicklung wurde sicher auch durch die "TWIMTBP Titel" begünstigt. Ich sehe hier eigentlich garkeinen Vorteil für ATI.
Du findest doch ständig Gerüchte zu 2 GB Versionen der 5870 und 5870 x2. Wenn du diesen Gerüchten nicht glaubst, warum glaubst du die restlichen Gerüchte ? Ich bin eigentlich davon überzeugt, dass Versionen mit 2 GB kommen werden. Zumindest die X2 wird es auf jeden Fall mit 2 GB geben. Die normale 5870er mit Sicherheit auch. Allenfalls bei der 5850er könnte es von ATI aus bei einer 1 GB Version bleiben. Außerdem verbrauchte auch GTA 4 auf höchsten Einstellungen nur knapp über 1 GB bis zu maximal 1,5 GB. Das erreichst du aber auch nur mit extremen Einstellungen.
Welche Neuerungen siehst du denn beim GT300 ? Meine Glaskugel ist grade ausser Haus zum polieren, also kannst mir ja sicher mal deine leihen. Da NVidia bisher praktisch garkeine Informationen rausgegeben hat sind das alles nur Spekulationen von dir.
Deine letzte Aussage ist so auch nicht ganz korrekt. Konkurrenz belebt das Geschäft und drückt die Preise in dem Fall, aber eigene Entwicklungen der ATI Partner wie Sapphire etc fallen i.d.R. immer teurer aus als das Referenzdesign.
@y33H@
Wo siehst du denn hier bitte so eklatante Nachteile einer 4870 X2 gegenüber Single GPU Grafikkarten ? Lass die Mikroruckeler mal aussen vor.
Was bleibt denn dann noch ? Der hohe Stromverbrauch ? Da nehmen sich ATI und NVidia ja auch nicht viel. Sollten die Mirkoruckler beseitigt oder zumindest eingedämmt werden können spricht für mich persöhnlich nichts mehr gegen eine X2.
Wo siehst du denn einen DirectX 10.1 Vorteil den ATI hatte ? Es gab nur eine Hand voll Spiele, die überhaupt damit umgehen konnten. Diese negative Entwicklung wurde sicher auch durch die "TWIMTBP Titel" begünstigt. Ich sehe hier eigentlich garkeinen Vorteil für ATI.
Du findest doch ständig Gerüchte zu 2 GB Versionen der 5870 und 5870 x2. Wenn du diesen Gerüchten nicht glaubst, warum glaubst du die restlichen Gerüchte ? Ich bin eigentlich davon überzeugt, dass Versionen mit 2 GB kommen werden. Zumindest die X2 wird es auf jeden Fall mit 2 GB geben. Die normale 5870er mit Sicherheit auch. Allenfalls bei der 5850er könnte es von ATI aus bei einer 1 GB Version bleiben. Außerdem verbrauchte auch GTA 4 auf höchsten Einstellungen nur knapp über 1 GB bis zu maximal 1,5 GB. Das erreichst du aber auch nur mit extremen Einstellungen.
Welche Neuerungen siehst du denn beim GT300 ? Meine Glaskugel ist grade ausser Haus zum polieren, also kannst mir ja sicher mal deine leihen. Da NVidia bisher praktisch garkeine Informationen rausgegeben hat sind das alles nur Spekulationen von dir.
Deine letzte Aussage ist so auch nicht ganz korrekt. Konkurrenz belebt das Geschäft und drückt die Preise in dem Fall, aber eigene Entwicklungen der ATI Partner wie Sapphire etc fallen i.d.R. immer teurer aus als das Referenzdesign.
@y33H@
Wo siehst du denn hier bitte so eklatante Nachteile einer 4870 X2 gegenüber Single GPU Grafikkarten ? Lass die Mikroruckeler mal aussen vor.
Was bleibt denn dann noch ? Der hohe Stromverbrauch ? Da nehmen sich ATI und NVidia ja auch nicht viel. Sollten die Mirkoruckler beseitigt oder zumindest eingedämmt werden können spricht für mich persöhnlich nichts mehr gegen eine X2.
Zuletzt bearbeitet:
angHell
Commander
- Registriert
- Aug. 2008
- Beiträge
- 2.264
naja - bin gespannt - wenn der Stromverbrauch und die vermutete Leistung in etwa hinkommt - werde ich denke ich meine X2 abgeben - aber ebenfalls erst wenn die Preise fallen und nvidia draußen sind - aber klingt erstmal vielversprechend....finde ich
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.665
• Input-LagWas bleibt denn dann noch?
• Skalierung
• Hitze
• Lautheit
• Stromverbrauch
GodCast
Banned
- Registriert
- Apr. 2009
- Beiträge
- 1.540
das sind echt tolle Einstiegspreise zumal die Hoffnung berechtigt ist, dass sich die Preise anderen Karten wie z.B. der 4870X2 stramm unter 200 Euro bewegen werden. Ok wer die überhaupt noch kauft ist schön blöd aber die 3870X2 gabs damals auch für 130 Euro als die 4870 noch bei deutlich über 200 Euro lag.
tsingtao
Fleet Admiral
- Registriert
- Apr. 2007
- Beiträge
- 12.669
SixpackRanger schrieb:Tja, man merkt ... die Amis brauchen Kohle.
330 EUR für ne 5870 ? Ne Frechheit in Anbetracht dessen womit der Markt in den letzten 2 Jahren zugeschwemmt und den Leuten das Geld aus der Tasche gezogen wurde !
Mit aufgewärmeten NVidia-Chips^^^
Vor einiger Zeit musste man, wie schon einige sagten, ne Menge auf den Tisch legen um ne 8800gts 640 zu bekommen. In letzter Zeit sind die Preise enorm gesunken...
Nun legt ATI nach langer Zeit mal wieder was vor - und ist mal ander Reihe mit dem Abkassieren.
Denkt mal dran was die GTX 280er bei der Einführung gekostet haben. Gleiche Geschichte. Nur andersrum. Als dann die neue ATI-Generation kam und in Sachen P/L deutlich besser war musste auch Nvidia die Preise senken...
Ist also nur ne Frage der Zeit bis das Ganze günstiger wird. Ich warte da lieber....
Iron Grey
Lt. Junior Grade
- Registriert
- Juni 2006
- Beiträge
- 450
y33H@ schrieb:Eine X2 ist kein High-End ... nur dem Balken nach. In allem anderen der SGPU-Version unterlegen (sieht man mal von den technischen Features ab).
y33H@ schrieb:• Input-Lag
• Skalierung
• Hitze
• Lautheit
• Stromverbrauch
Warum nicht gleich in einem Post?
Naja ... doppelt hält besser, oder wie war das?
Was ist denn High-End z.B. für ein 30-Zoll-Display? SLI
Also mir fällt keine Single-GPU-Config ein, die zum Beispiel Crysis halbwegs akzeptabel bei Multi-Display bzw. hochauflösenden Großdisplays widergeben könnte.
(Crysis ist da leider kein Einzelbleistift)
F-Hörnchen
Lieutenant
- Registriert
- Juli 2008
- Beiträge
- 568
@y33H@
• Input-Lag
Das hängt von sehr vielen Faktoren ab, nichtnur von der Grafikkarte. Da gibs auch nen sehr interessanten Artikel zu auf andandtech. Also das hier mit anzuführen halte ich für fragwürdig. Dann könntest auchnoch deine Maus, die Abtastrate fürn USB, dein Display, dessen Hz, vsync etc mit anführen. Die Grafikkarte bildet dabei doch nur ein Glied in einer ganzen Kette, die am Ende eben das Input Lag ergibt.
• Skalierung
Wieso siehst du das als Nachteil ? Selbst wenn das Crossfire oder SLI "nur" 60% Mehrleistung bringt sind das immernoch 60% mehr, als ich mit einem single GPU System erreichen würde.
• Hitze + • Lautheit
Das kannst du so wirklich nicht als Argument bringen, da du wohl kaum die neue X2 schon in Aktion gesehen hast. Dass diese Karten mit deutlich mehr Abwärme als Single GPU Karten zu kämpfen haben ist klar, aber dennoch sollten sie einen Sommer und heiße Temperaturen überstehen können. Die benötigte Kühlleistung kann dann natürlich aufgrund höherer Lüfterdrehzahlen erkauft werden. Das werden Tests zeigen müssen. Entsprechend laut könnten sie auch werden. Vielleicht rechnen sich dann auch eher 2 einzelne 5870er mit 2 GB anstatt einer X2- Zumindest sollten sie kühler und damit eigentlich auch leiser laufen.
• Stromverbrauch
Natürlich erkaufe ich mir die Mehrleistung mit einem erhöhtem Stromverbrauch. Aber wenn die 5870 27 Watt idle zieht kann man davon ausgehen dass eine X2 das doppelte oder knapp darüber verbraucht. Damit wäre das immernoch völlig im Rahmen. Der Lastverbrauch interessiert mich persöhnlich nicht so sehr. Ich arbeite am PC täglich gut 10 h und dazu gibs dann 1-2 h Spiele wenn Zeit zu bleibt. Wenn dann der Stromverbrauch mal ansteigt kann ich damit leben und zahle die paar Euros im Monat zusätzlich.
Das ist jetzt aber auch nur meine Meinung zu den von dir genannten Punkten. Das sollte wohl jeder für sich selber klären ob er eine X2 braucht und für sinnvoll hält oder nicht. Generell alle multi GPU Karten zu verteufeln halte ich aber für falsch. Die Entwicklung geht ja auch klar in die Richtung und es ist nurnoch eine Frage der Zeit wann auch NVidia voll mit einsteigen wird. Natürlich gibt es dort noch einige Hürden zu beseitigen(doppelte Daten im Speicher z.B.) aber ich denke ich Zukunft wird es immer mehr multi GPU Grafikkarten geben. Da werden dann 2 GPUs noch garnix sein
• Input-Lag
Das hängt von sehr vielen Faktoren ab, nichtnur von der Grafikkarte. Da gibs auch nen sehr interessanten Artikel zu auf andandtech. Also das hier mit anzuführen halte ich für fragwürdig. Dann könntest auchnoch deine Maus, die Abtastrate fürn USB, dein Display, dessen Hz, vsync etc mit anführen. Die Grafikkarte bildet dabei doch nur ein Glied in einer ganzen Kette, die am Ende eben das Input Lag ergibt.
• Skalierung
Wieso siehst du das als Nachteil ? Selbst wenn das Crossfire oder SLI "nur" 60% Mehrleistung bringt sind das immernoch 60% mehr, als ich mit einem single GPU System erreichen würde.
• Hitze + • Lautheit
Das kannst du so wirklich nicht als Argument bringen, da du wohl kaum die neue X2 schon in Aktion gesehen hast. Dass diese Karten mit deutlich mehr Abwärme als Single GPU Karten zu kämpfen haben ist klar, aber dennoch sollten sie einen Sommer und heiße Temperaturen überstehen können. Die benötigte Kühlleistung kann dann natürlich aufgrund höherer Lüfterdrehzahlen erkauft werden. Das werden Tests zeigen müssen. Entsprechend laut könnten sie auch werden. Vielleicht rechnen sich dann auch eher 2 einzelne 5870er mit 2 GB anstatt einer X2- Zumindest sollten sie kühler und damit eigentlich auch leiser laufen.
• Stromverbrauch
Natürlich erkaufe ich mir die Mehrleistung mit einem erhöhtem Stromverbrauch. Aber wenn die 5870 27 Watt idle zieht kann man davon ausgehen dass eine X2 das doppelte oder knapp darüber verbraucht. Damit wäre das immernoch völlig im Rahmen. Der Lastverbrauch interessiert mich persöhnlich nicht so sehr. Ich arbeite am PC täglich gut 10 h und dazu gibs dann 1-2 h Spiele wenn Zeit zu bleibt. Wenn dann der Stromverbrauch mal ansteigt kann ich damit leben und zahle die paar Euros im Monat zusätzlich.
Das ist jetzt aber auch nur meine Meinung zu den von dir genannten Punkten. Das sollte wohl jeder für sich selber klären ob er eine X2 braucht und für sinnvoll hält oder nicht. Generell alle multi GPU Karten zu verteufeln halte ich aber für falsch. Die Entwicklung geht ja auch klar in die Richtung und es ist nurnoch eine Frage der Zeit wann auch NVidia voll mit einsteigen wird. Natürlich gibt es dort noch einige Hürden zu beseitigen(doppelte Daten im Speicher z.B.) aber ich denke ich Zukunft wird es immer mehr multi GPU Grafikkarten geben. Da werden dann 2 GPUs noch garnix sein
mace1978
Lt. Commander
- Registriert
- Mai 2008
- Beiträge
- 1.174
1. Ich dachte CF Skaliert im allgemeinen Besser als 1.0.y33H@ schrieb:• Skalierung
• Hitze
• Lautheit
• Stromverbrauch
2. Sind Hitze und Lautheit und Stromverbrauch nicht irgendwie ein und der selbe Punkt?
latexdoll
Lt. Commander
- Registriert
- Jan. 2007
- Beiträge
- 1.121
@latexdoll
Wo siehst du denn einen DirectX 10.1 Vorteil den ATI hatte ? Es gab nur eine Hand voll Spiele, die überhaupt damit umgehen konnten. Diese negative Entwicklung wurde sicher auch durch die "TWIMTBP Titel" begünstigt. Ich sehe hier eigentlich garkeinen Vorteil für ATI.
Du findest doch ständig Gerüchte zu 2 GB Versionen der 5870 und 5870 x2. Wenn du diesen Gerüchten nicht glaubst, warum glaubst du die restlichen Gerüchte ? Ich bin eigentlich davon überzeugt, dass Versionen mit 2 GB kommen werden. Zumindest die X2 wird es auf jeden Fall mit 2 GB geben. Die normale 5870er mit Sicherheit auch. Allenfalls bei der 5850er könnte es von ATI aus bei einer 1 GB Version bleiben. Außerdem verbrauchte auch GTA 4 auf höchsten Einstellungen nur knapp über 1 GB bis zu maximal 1,5 GB. Das erreichst du aber auch nur mit extremen Einstellungen.
Welche Neuerungen siehst du denn beim GT300 ? Meine Glaskugel ist grade ausser Haus zum polieren, also kannst mir ja sicher mal deine leihen. Da NVidia bisher praktisch garkeine Informationen rausgegeben hat sind das alles nur Spekulationen von dir.
Deine letzte Aussage ist so auch nicht ganz korrekt. Konkurrenz belebt das Geschäft und drückt die Preise in dem Fall, aber eigene Entwicklungen der ATI Partner wie Sapphire etc fallen i.d.R. immer teurer aus als das Referenzdesign.
Nun einige Spiele hatte bis zu 20% mehr Geschwindigkeit unter DX 10.1 als rein DX10.
Es ist ein Fortschritt, wieviele Spiele unterstürtzen Physik ? Auch nur eine Handvoll wenn ich mich nicht irre.
Soso die 5870 X2 hat 2GB ram :-) ergo 1GB je Chip
Es gab auch eine Geforce 5 mit 512MB, sobei die Speicherverwaltung nur richtig 64 oder waren es 128 MB angesprochen haben. Daher wünsche ich mir das bei der neuen Generation bei einen Single Chip 2 GB Ram sich befinden die auch die passende Speicheranbindung und verwaltung hat.
Oder Stichwort PCIe 3.0
Seltsam der Preis für eine Toixc 4890 ist gesunken als die anderen Anbieter, auch eigne Modell herrausbrachten.
Aber ich noch du hahaben eine Highendkarten ja Anbieter daheim, und können sagen das diese oder jene besser oder billiger ist.
Nochmal einfach die NDAs und die ersten richtigen Vergleichstest abwarten, was anderes ist einfach nur Geld zum Fenster rauswerfen.
Wo siehst du denn einen DirectX 10.1 Vorteil den ATI hatte ? Es gab nur eine Hand voll Spiele, die überhaupt damit umgehen konnten. Diese negative Entwicklung wurde sicher auch durch die "TWIMTBP Titel" begünstigt. Ich sehe hier eigentlich garkeinen Vorteil für ATI.
Du findest doch ständig Gerüchte zu 2 GB Versionen der 5870 und 5870 x2. Wenn du diesen Gerüchten nicht glaubst, warum glaubst du die restlichen Gerüchte ? Ich bin eigentlich davon überzeugt, dass Versionen mit 2 GB kommen werden. Zumindest die X2 wird es auf jeden Fall mit 2 GB geben. Die normale 5870er mit Sicherheit auch. Allenfalls bei der 5850er könnte es von ATI aus bei einer 1 GB Version bleiben. Außerdem verbrauchte auch GTA 4 auf höchsten Einstellungen nur knapp über 1 GB bis zu maximal 1,5 GB. Das erreichst du aber auch nur mit extremen Einstellungen.
Welche Neuerungen siehst du denn beim GT300 ? Meine Glaskugel ist grade ausser Haus zum polieren, also kannst mir ja sicher mal deine leihen. Da NVidia bisher praktisch garkeine Informationen rausgegeben hat sind das alles nur Spekulationen von dir.
Deine letzte Aussage ist so auch nicht ganz korrekt. Konkurrenz belebt das Geschäft und drückt die Preise in dem Fall, aber eigene Entwicklungen der ATI Partner wie Sapphire etc fallen i.d.R. immer teurer aus als das Referenzdesign.
Nun einige Spiele hatte bis zu 20% mehr Geschwindigkeit unter DX 10.1 als rein DX10.
Es ist ein Fortschritt, wieviele Spiele unterstürtzen Physik ? Auch nur eine Handvoll wenn ich mich nicht irre.
Soso die 5870 X2 hat 2GB ram :-) ergo 1GB je Chip
Es gab auch eine Geforce 5 mit 512MB, sobei die Speicherverwaltung nur richtig 64 oder waren es 128 MB angesprochen haben. Daher wünsche ich mir das bei der neuen Generation bei einen Single Chip 2 GB Ram sich befinden die auch die passende Speicheranbindung und verwaltung hat.
Oder Stichwort PCIe 3.0
Seltsam der Preis für eine Toixc 4890 ist gesunken als die anderen Anbieter, auch eigne Modell herrausbrachten.
Aber ich noch du hahaben eine Highendkarten ja Anbieter daheim, und können sagen das diese oder jene besser oder billiger ist.
Nochmal einfach die NDAs und die ersten richtigen Vergleichstest abwarten, was anderes ist einfach nur Geld zum Fenster rauswerfen.
Zuletzt bearbeitet:
Iron Grey
Lt. Junior Grade
- Registriert
- Juni 2006
- Beiträge
- 450
@Y33H
Ich habe die gleichen (schlechten) Erfahrungen mit SLI sowie Crossfire auf einem 22" (bzw. 24"/ 32") machen müssen. (der 32" ist im übrigen hochauflösend)
Ich sage dir ehrlich:
Die Treiberoptimierungen für NV-SLI sind tatsächlich vorhanden (ich kann es "sehen"),
aber der Unterschied zu Crossfire ist so vernichtend gering, dass es sich beide schenken können - jedenfalls auf großen Displays.
(Um mal bei einem Post zu bleiben - Du willst meine Testconfig wissen?
-> Crossfire: 2x 4850 1GB bzw.
-> 2x GTX 260 0,9GB
Mir ist klar, dass das nicht an 2GB-Karten und darüber herankommt, aber ich habe beides als gleichermaßen schlecht emfunden)
Ich habe die gleichen (schlechten) Erfahrungen mit SLI sowie Crossfire auf einem 22" (bzw. 24"/ 32") machen müssen. (der 32" ist im übrigen hochauflösend)
Ich sage dir ehrlich:
Die Treiberoptimierungen für NV-SLI sind tatsächlich vorhanden (ich kann es "sehen"),
aber der Unterschied zu Crossfire ist so vernichtend gering, dass es sich beide schenken können - jedenfalls auf großen Displays.
(Um mal bei einem Post zu bleiben - Du willst meine Testconfig wissen?
-> Crossfire: 2x 4850 1GB bzw.
-> 2x GTX 260 0,9GB
Mir ist klar, dass das nicht an 2GB-Karten und darüber herankommt, aber ich habe beides als gleichermaßen schlecht emfunden)
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.665
Ich nicht. Ich habe oft genug mit SLI/CF, 3-Way-SLI/CF sowie 4-Way-SLI/CF gezockt. Und das laggt wie blöde.F-Hörnchen schrieb:Also das hier mit anzuführen halte ich für fragwürdig.
Ich zahle das Doppelte, erhalte aber nicht die doppelten Fps. Input-Lag und µRuckler "senken" zudem die Fps weiter bzw. verschlechtern das Spielgefühl.F-Hörnchen schrieb:Wieso siehst du das als Nachteil ? Selbst wenn das Crossfire oder SLI "nur" 60% Mehrleistung bringt sind das immernoch 60% mehr, als ich mit einem single GPU System erreichen würde.
Nahezu alle X2/GX2 waren deutlich lauter (teils mehr als doppelt so laut) wie ihre SGPU-Pendants. Und eine leise X2? Träum weiter *g*F-Hörnchen schrieb:Das kannst du so wirklich nicht als Argument bringen, da du wohl kaum die neue X2 schon in Aktion gesehen hast
Ich auch. 3x GTX285/2G sind super zum screenshottenF-Hörnchen schrieb:Generell alle multi GPU Karten zu verteufeln halte ich aber für falsch.
1) Was ist "1.0"?mace1978 schrieb:1. Ich dachte CF Skaliert im allgemeinen Besser als 1.0.
2. Sind Hitze und Lautheit und Stromverbrauch nicht irgendwie ein und der selbe Punkt?
2) Nein, eins bedingt nicht zwingend das andre.
@ MacPok
Ja, NV ist tendenziell besser.
F-Hörnchen
Lieutenant
- Registriert
- Juli 2008
- Beiträge
- 568
@latexdoll
Dann nenne mir doch mal Spiele, die massiv von DirectX 10.1 profitiert haben ? Und bitte mehr als 5, sonst bekommen wir ja nicht ne Hand voll Mir fällt da spontan nur HAWX ein. Assassins Creed kannst als Beispiel net bringen, da der directX 10.1 Pfad nur inoffiziell implementiert und durch nen patch wieder entfernt wurde
Ich meinte, dass die Eigenentwicklungen über den Preisen der Referenzdesigns liegen. Was da nun Asus, Sapphire etc preisich mit ihren Eigenentwicklungen verantstalten ist ja noch ne andere Sache. Die wollen ja halz auch ihre Entwicklungskosten etc reinbekommen und verlangen ausserdem noch einen Aufschlag für das exklusive Platinendesign.
Ich habe eine Radeon 4870 hier auf 795/1105. Die kommt halt auch so langsam an ihre Grenzen. Ich werde auch die Test hier auf CB und bei PCGH abwarten bevor ich eine Kaufentscheidung treffe. Da NVidia aber frühstens im November Karten bringt würde dann die Wahl zwischen einer 5870 x2 und einer 5870 X2 fallen.
Achso, ich meinte die 5870 X2 mit 4 GB, also effektiven 2 GB. Ausser die Gerüchte stimmen und die Daten müssen nichmehr doppelt vorlieren, aber daran glaub ich net.
@y33H@
hehe, taugt sicher auch für Folding @ Home
Dann nenne mir doch mal Spiele, die massiv von DirectX 10.1 profitiert haben ? Und bitte mehr als 5, sonst bekommen wir ja nicht ne Hand voll Mir fällt da spontan nur HAWX ein. Assassins Creed kannst als Beispiel net bringen, da der directX 10.1 Pfad nur inoffiziell implementiert und durch nen patch wieder entfernt wurde
Ich meinte, dass die Eigenentwicklungen über den Preisen der Referenzdesigns liegen. Was da nun Asus, Sapphire etc preisich mit ihren Eigenentwicklungen verantstalten ist ja noch ne andere Sache. Die wollen ja halz auch ihre Entwicklungskosten etc reinbekommen und verlangen ausserdem noch einen Aufschlag für das exklusive Platinendesign.
Ich habe eine Radeon 4870 hier auf 795/1105. Die kommt halt auch so langsam an ihre Grenzen. Ich werde auch die Test hier auf CB und bei PCGH abwarten bevor ich eine Kaufentscheidung treffe. Da NVidia aber frühstens im November Karten bringt würde dann die Wahl zwischen einer 5870 x2 und einer 5870 X2 fallen.
Achso, ich meinte die 5870 X2 mit 4 GB, also effektiven 2 GB. Ausser die Gerüchte stimmen und die Daten müssen nichmehr doppelt vorlieren, aber daran glaub ich net.
@y33H@
Kann ich nicht beurteilen da ich seit langem nimmer auf multi GPU Systemen gezockt habe(is echt sehr lange her ). Viele Leute merken aber auch garnix von Mirkrorucklern. Muss man wirklich mal abwarten was die neue Grafikkartengeneration bringt.Ich nicht. Ich habe oft genug mit SLI/CF, 3-Way-SLI/CF sowie 4-Way-SLI/CF gezockt. Und das laggt wie blöde.
Für eine nach deiner Defintion "High End Grafikkarte" GTX 285 zahlst du aber im Verhältnis zur gebotenen Leistung auch überproportional viel wenn du das mal mit anderen Grafikkarten vergleichst. Von den OC Versionen rede ich da noch garnicht. Wenn man volle Leistung will wirds halt teuer, das war schon immer so. ich erinner mich da noch gut an meine Diamond Monster. Extrem teuer, aber erst damit machte Unreal richtig LauneIch zahle das Doppelte, erhalte aber nicht die doppelten Fps. Input-Lag und µRuckler "senken" zudem die Fps weiter bzw. verschlechtern das Spielgefühl.
Ich hab meine 4870 auch per BIOS in den Lüfterdrehzahlen hochgeregelt, da mir die Temperaturen im Windows einfach zu hoch waren. Dir wäre die Karte jetzt sicherlich schon viel zu laut ich empfinde es aber nicht als störend wenn man ein leises Luftgeräusch im Hintergrund hört. Ich bin nicht auf einen silent PC aus und das soll auch kein HTPC werden. Da würden Lüftergeräusche wirklich stören, aber dort brauchst du auch keine x2 Es wird schon kein Staubsauger werdem(hoffe ich^^).Nahezu alle X2/GX2 waren deutlich lauter (teils mehr als doppelt so laut) wie ihre SGPU-Pendants. Und eine leise X2? Träum weiter *g*
Ich auch. 3x GTX285/2G sind super zum screenshotten
hehe, taugt sicher auch für Folding @ Home
Zuletzt bearbeitet:
Iron Grey
Lt. Junior Grade
- Registriert
- Juni 2006
- Beiträge
- 450
@y33H
Begründung? Also/ bitte nicht über mein Fallbeispiel.
Edit: Wenn du meinst, dass ich mir selbst die Begründung liefere: Nein, denn ich habe nur einen ganz bescheidenen Unterschied sehen können und ich verspreche dir ferner, dass dieses "sehen" über Crysis hinausging ;-)
Aber nichtsdestoweniger bekommst du dein "Recht haben": Es ist ein ganz bescheidener Unterschied vorhanden.
Begründung? Also/ bitte nicht über mein Fallbeispiel.
Edit: Wenn du meinst, dass ich mir selbst die Begründung liefere: Nein, denn ich habe nur einen ganz bescheidenen Unterschied sehen können und ich verspreche dir ferner, dass dieses "sehen" über Crysis hinausging ;-)
Aber nichtsdestoweniger bekommst du dein "Recht haben": Es ist ein ganz bescheidener Unterschied vorhanden.
Zuletzt bearbeitet:
Iron Grey
Lt. Junior Grade
- Registriert
- Juni 2006
- Beiträge
- 450
y33H@ schrieb:Tests mit diversen CF/SLI-Setups, diversen Setting/Spielen/Saves.
Naja ... Dann wünsch ich dir weiterhin viel Erfolg damit.
Was soll man bevorzugen?
Jemanden, der sagt, dass die eigene objektive Einstellung die Richtige ist oder das eigene (optische) Urteil? Hat eine Zeitschrift, wie du z.B., immer recht? Nein. Und es ist gut so!
Zugegeben: Jeder empfindet das "Multi-GPU" anders, was allerdings nicht dein "Multi-GPU"-Bild ad ultimo setzt.
Die meisten Redaktionen sagen: "Multi-GPU ist mit optischen Nachteilen verbunden".
Klar, aber: Wann?, wo? wie? ist die Frage und nicht "Warum?" Das Warum ist geklärt.
Die ganz ursprüngliche Frage der letzten Stunde war, wann sich Multi-GPU lohnt. Und ich hatte nunmal den Eindruck, dass 2x 4850 1GB bzw. 2x GTX 260 0,9GB eine wesentlich flüssigere Darstellung ablieferten als eine einzelne GTX280 (glaub mir, ich konnte mich davon überzeugen) :-)
Nichtsdestoweniger stimme ich den meisten Redaktionen zu, dass MultiGPU mit optischen Nachteilen verbunden ist.
Oder nicht?
Edit: Gute Nacht.
P
Pickebuh
Gast
MacPok schrieb:Und ich hatte nunmal den Eindruck, dass 2x 4850 1GB bzw. 2x GTX 260 0,9GB eine wesentlich flüssigere Darstellung ablieferten als eine einzelne GTX280 (glaub mir, ich konnte mich davon überzeugen) :-)
Nun ich hatte auch schon 2x 4850er und eine 4870X2 mein Eigen genannt und war von der Leistung her überzeugt.
Das ging solange bis mir die Probleme von MultiGPU so dermasen auf die Nerven gingen das ich alles verkauft habe und mir die GTX285 besorgt habe.
Und plötzlich waren 20-30 FPS butter weich anzusehen und absolut flüssig während bei der X2 selbst bei 50 FPS das Stottern und Zuckeln kein Ende nahm !
Also keine Frame-Lags,Microruckler und Skalierungsprobleme mehr.
Seitdem bin ich vom MultiGPU geheilt und kann jedem nur davon abraten.
Lieber mit einer Singelkarte 25 flüssige Frames haben als mit einer Multikarte stotternde 40 Frames.
Zuletzt bearbeitet:
(Man sollte so spät Nachts keine Posts mehr schreiben)
Ähnliche Themen
- Antworten
- 90
- Aufrufe
- 4.473
- Antworten
- 4
- Aufrufe
- 2.142
- Antworten
- 1.052
- Aufrufe
- 137.501
- Antworten
- 55
- Aufrufe
- 5.912
- Antworten
- 29
- Aufrufe
- 3.863
C