News Weitere Hinweise zur Leistung der HD 4870 X2

@BLACK, sorry dann holt ati ne x4 karte raus, die anzahl der cores spielt ja keine rolle, man muss das zeug noch kühlen können und die normale gx 280 oder wie die heißt von nvidia schluckt nunmal warscheinlich mehr strom als eien x2 von ati.

Daher ist es schon fast zwingend eine x2 von ati mit einer nvidia zu vergleichen:
preis: ati < nvidia
stromverbraucht: ati < nvidia
chip größe (zusammengereichnet bei ati): ati < nvidia
leistung: ungefähr gleich bei beiden

wieso willst da jetzt eine karte vergleichen wo dann wohl nicht mal mehr ein 500W netzteil reichen würde und du ne wasserkühlung für brauchst. Außerdem wird die gtx280 wohl ja auch schon 400-500,-kosten eine x2 davon würde auch gleich 600-800,- kosten, wer kauft dann sowas + 50,- für neues netzteil + 100,- für wakü.

Nvidia wird jetzt erstmal die preise senken müssen, entweder wenig gewinn oder gleich ins minus, da nvidia auch ncoh höhere herstellungskosten hat wie ati.

Wenn sie es dann mal geschafft haben auf 55nm zu verkleinern haben sie wohl wieder bischen spielraum und können vielleicht den takt bischen erhöhen um sich weider ein stück von ati abzusetzen kurzfristig, wobei die 4870 x2 auch niedriger getaktet ist wie der vorgänger da wäre also auch noch eine stärkere version drin.

Aber wenn es ati wie auf manchen seiten angedeutet, es wirklich schafft schneller zu sein wie nvidia dann wäre das schon wichtig. Klar die karte werden wohl wenige leute kaufen weil die wennigsten > 200$ ausgeben für ne grafikkarte, aber es ist so für das image wichtig, sieht man auch bei der debatte intel vs amd da gewinnt auch intel marktanteil um marktanteil, wobei amd im bereich < 200,- schon konkurenzfähig ist, und die wenigsten leute übertakten.

Aber die leute fragen nunmal die freaks in der verwandschaft oder im freundeskreis was sie kaufen sollen oder schauen in threads welche firma nun bessere hardware baut und kaufen die dann auch wenn die aussagen sich eigentlich nur aufs highend beziehen und sie midrange kaufen wollen.

Daher wäre es für die verkaufszahlen meiner einschätzung nach auch für die kleineren chips enorm wichtig das ati wieder die mal die spitze für ein paar monate halten könnte.

Eigentlich ist die taktik nur chips zu bauen die in preissegmenten sind wo viele leute sie kaufen wollen ja klug aber die leute sind nunmal so blöde das sie nicht rationel handeln sondern nach geschreih in foren, agressivem marketing etc.
 
Zuletzt bearbeitet:
X2 Karten sind schon was tolles, aber wirklich brauchen tut man es auch nicht, bzw. sehr selten.
Ich spiele aktuell auch noch mit einer übertakteten 8800GTS 640MB auf einem 24" TFT, und bisher läuft alles noch ganz gut. Mir würde eine recht günstige 4870er alleine aber auch gefallen, wenn Leistung und Stromverbrauch okay sind.
 
Zuletzt bearbeitet:
Sharkoon05 schrieb:
Also ich hatte mit meiner ATI karte soviele Probleme mit Treibern und zusatz Programmen, wie ich meine ganze zeit mit nvidia noch nie hatte,

Fängt an bei den ganzen ATI programmen die dabei sind (reicht ja nicht der normale Treiber)
und hört auf bei den ganzen Bildfehlern in Spielen, als ich Crysis spielen wollte (damals mit meiner hd 2600 Pro) war die hälfte der Welt hinter Grafikfehlern versteckt!

Hmm ich habe vor 7 Jahren versucht auf einer GF2MX Midtown Madness zu spielen - und hatte auch andauernd Grafikfehler. Das heisst aber nicht dass die heutigen Grakas auch schlechte Treiber haben.

@ Topic

Nun ja wenn man 2x280 GTX im SLI laufen lässt sind die bestimmt schneller als HD 4870 X2 daher ist die Aussage sehr relativ.
 
Wenn das alles so stimmt wie geschrieben (CB Test wird es zeigen) dann kann ATI viele Marktanteile gewinnen. Dann wieder eine gute CPU dazu die ganz vorne mitspielt und den gewohnten AMD Preis noch dazu und dann fragen wir alle - Intel, wer ist Intel - !!!! Naja abwarten. Ich bin guter Dinge und warte noch mit dem Test ab ob ich mir eine neue Karte hole. Wollte mir eine neue bzw zweite 8800GTX holen. Aber wenn die neue Karte von ATI so gut wird wie geglaubt dann, wer weiss.....
 
Schnie schrieb:
Nun ja wenn man 2x280 GTX im SLI laufen lässt sind die bestimmt schneller als HD 4870 X2 daher ist die Aussage sehr relativ.

Wobei 2x 280 GTX deutlich teurer sein wird und deutlich mehr Strom verbrauchen wird ;)
 
@4

Microruckler sind was ganz furchtbares ,sie trueben den Spielspass ganz erheblich obwohl sie selbst nicht so recht greifbar sind . Wenn Microruckler auftreten wird das Spiel nicht wirklich langsamer bzw ruckelt spuerbar ,es ist wirklich ein winziger Moment in dem aber alles komplett steht . Auf die framerate macht das so gut wie nichts aus, aber 10 solche Dinger pro Minute haben mich in den Wahnsinn getrieben,SLI nach 8 Wochen wieder abgeschafft.Ich glaube kaum das das Problem bei den neuen Karten geloest wurde .Es sind nach wie vor Single GPU Karten die zusammengepfuscht werden und nie fuer sowas entworfen wurden. Frueher gabs sowas am Ende einer Grafikkartengeneration als kroenenden Abschluss der Reihe ,momentan bringt ATI sowas gleich am Anfang um ueberhaupt noch mithalten zu koennen.Bei der verpfuschten 9er Reihe von nvidia hat das noch gut geklappt ,beim GT200 laeuft das nicht mehr. Zumindestens die GTX280 ist derart ueberlegen das auch die X2 nicht rankommt(es sei denn sie ist annaehernd doppelt so schnell wie als SIngle GPU) .Das glaubt jetzt natuerlich keiner und wird hier gleich als Schwachsinn abgetan ,aber der Beweis kommt in wenigen Tagen...:)Ich weiss nicht wie und warum aber irgendwas sagt mir das die 280GTX doppelt so schnell ist wie eine 8800GTX, ein gewaltiges Uebertaktungspotenzial hat und dabei noch weniger Strom als die 8800GTX braucht. War vielleicht auch ein zwitscherndes Voegelchen....:)

@Killermuecke

aeh ja die Zukunft gehoert den MultiCore CPU&GPU`s , aber anderst als bei der CPU werden es bei der GPU nicht identische Rechenkerne sein sondern spezialisierte Prozessoren ala PhysX usw.

Der X2 und GX2 Schrott zeigt ja deutlich das GPU`s noch schlechter skalieren als CPU`s. Mehrere Kerne sollen letztendlich immer etwas parallelisieren . Spiele, das Haupteinsatzgebiet von HighEnd GPU`s, lassen sich am Schlechtesten ueberhaupt in dieser Art optimieren.Schon allein die riesige Menge von noetigen Usereingaben innerhalb kuerzester Zeit zum Steuern usw verhindern das sinnvolle Vorberechnen irgendwelcher Werte...

X2&GX2 sind genau der falsche Weg und bringen trotz doppeltem Aufwand nicht annaehernd doppelte Leistung...gut das nvidia davon weg ist
Ein Spezialprozessor wie der PhysX dagegen macht sicher einen Riesen Unterschied zu einer reinen GPU oder gar einer Softwareemulation.Dazu noch ein Prozessor der auf Berechnung der Gegner KI bzw auf kuenstliche neuronale Netze spezialisiert ist.Fuer die allermeisten sind Spiele die einzige Anwendung bzw einziger Bedarf fuer eine KI.Also das Ganze mit auf die SPielegrafikkarte,zusammen mit einem PhysX-Core der auch nur in Spielen benutzt wird und der eigentlichen GPU die viele Sachen auch nur fuer Spiele braucht.Sowas bringt sicher erheblich mehr als der immer wieder gleiche Kram den es momentan gibt.Selbes Prinzip wie in den letzten 10 Jahren seit Erfindung der 3D-Beschleunigung ,aber mit noch schnellerem Speicher,noch schnellere Anbindung,doppelt so grossem Cache ,dreimal soviel Shader usw ...

Multi Core ja,aber mit diskreten Spezial-Prozessoren ...das ist meiner Meinung nach die Zukunft , mit dem Erscheinen der 4870X2 macht ATI einen weiteren Schritt in die falsche Richtung . GX2&X2 funktionieren nach dem Motto : "1+1= 1,3",was heutzutage vorallem aus finanzieller Hinsicht voellig sinnlos ist .
 
Zuletzt bearbeitet:
@Sharkoon05

Welche zusatzprogramme meinst du damit ? Die optionalen ATI Tray tools die übertakter interessant finden ? Das ATI control panel das nicht zwingend erforderlich ist (wenngleich man nur damit Einstellungen verändern kann ?)

Der unterschied zwischen ATI und nVidia ist imo der dass ATI wenigstens während der installation nachfragt ob man CP und Tray tools usw. installieren will. nVidia installiert das einfach automatisch.

Oder haben nVidia Karten kein controlmenu mit diesem schicken nVidia logo ?
 
Zuletzt bearbeitet:
cool, zum ersten mal sehe ich mircoruckler :)

habe sowas bei mir vorher nie bemerkt beim zocken :D
wenn die TDP werte und der Preis stimmt wird die nächste x2 den platz der 3870x2 bei mit ein nehmen ;)
 
Aber gegen die gtx280 im Triple-SLI wird AMD nix entgegenzusetzen haben, mehr als 4 ATI-Chips lassen sich wohl nicht gemeinsam betreiben :D


€dit: noch was ernsthaftes:

Der X2 und GX2 Schrott zeigt ja deutlich das GPU`s noch schlechter skalieren als CPU`s. Mehrere Kerne sollen letztendlich immer etwas parallelisieren . Spiele, das Haupteinsatzgebiet von HighEnd GPU`s, lassen sich am Schlechtesten ueberhaupt in dieser Art optimieren.Schon allein die riesige Menge von noetigen Usereingaben innerhalb kuerzester Zeit zum Steuern usw verhindern das sinnvolle Vorberechnen irgendwelcher Werte...

Ich kann mich an Benchmarks erinnern, in denen drei NVidia-Karten etwa 280% der Leistung einer einzelnen bringen (UT3 glaube ich, ander Spiele waren auch nicht weit weg).

Ändert aber nix dran, dass nVidia versucht, mehr Aufgaben von der CPU auf die GPU auszulagern, stimmt schon. Die Prügelei zwischen nv und intel kann sich AMD in aller Ruhe anschauen, sie sind ja in beiden Gebieten vertreten.
 
Zuletzt bearbeitet:
Ich bin immer noch der Meinung, dass hier Äpfel mit Tomaten verglichen werden...
Bei 2 verschiedenen Grafikchips einer Generation (ATi und nVidia), sollte es eigentlich logisch sein (bzw., sollte es nicht so sein, beschämend), dass eine Dualchip-Karte schneller ist...
Der Vergleich über den Preis ist da schon eher angebracht, aber der nVidia-Chip hat, auch wenn die 280 GTX langsamer ist als die HD4870, deutlich mehr Potential. Das hilft nVidia zwar nichts, wenn ihre Karte 100€ mehr kostet und etwas langsamer ist, dafür haben sie dann aber einen Vorsprung in der Entwicklung von Grafikchips.
 
@ Bullrun
genau so sehe ich das auch. Ich bin weder ATI noch nvidia fanboy, aber der ein oder andere Vogel zwitschert halt..und so gut steht es nicht für die Zukunft von ATI.

Und wenn ich das mal hier so lese.....
Die Mikroruckler zum Beispiel
WTF??
Als herauskam, dass es bei SLI Systemen zu jenen kommen kann, haben direkt alle hier geschrien un sind drüber hergefallen, dass des mal wieder typisch nvidia sei.
Als dann aber jedoch herauskam, dass jegliche MultiGPU Systeme betrofen sind, also auch die von ATI wurd es still....vllt hier und da wurd noch gesagt, dass die ja eigentlich gar nicht mal so schlimm wären und das wars auch.
Jetzt, da das Gerücht aufgekommen ist, das ATI es geschafft hat, die Microruckler zu umgehen ist es natürlich was ganz tolles..ahja..
 
Ähm das eine 2x GPU VGA eine 1x GPU VGA schlagen kann ist was tolles ? Ich sehe das als ein muß, alles drunter wäre nur peinlich. Trotzdem würde ich in dem Fall immer zur 1x GPU greifen sofern der CF SLI Support von Games nicht perfekt ist und Probleme a la Microruckler nicht gelöst sind.
 
Ähm das eine 2x GPU VGA eine 1x GPU VGA schlagen kann ist was tolles ? Ich sehe das als ein muß, alles drunter wäre nur peinlich. Trotzdem würde ich in dem Fall immer zur 1x GPU greifen sofern der CF SLI Support von Games nicht perfekt ist und Probleme a la Microruckler nicht gelöst sind.
omg falk ^^ Beitrag nicht gelesen und schon wird gemeckert...
gerade die mikroruckler sind gelöst worden ;-)

blödsinn:
Der Vergleich über den Preis ist da schon eher angebracht, aber der nVidia-Chip hat, auch wenn die 280 GTX langsamer ist als die HD4870, deutlich mehr Potential. Das hilft nVidia zwar nichts, wenn ihre Karte 100€ mehr kostet und etwas langsamer ist, dafür haben sie dann aber einen Vorsprung in der Entwicklung von Grafikchips.

antwort:
Daher ist es schon fast zwingend eine x2 von ati mit einer nvidia zu vergleichen:
preis: ati < nvidia
stromverbraucht: ati < nvidia
chip größe (zusammengereichnet bei ati): ati < nvidia
leistung: ungefähr gleich bei beiden
ist find ich kein fortschritt wenn ein einzelner chip größer ist als 2 andere... es heist vorsprung durch technik und nicht vorsprung durch mehr transistoren... das ist nun wirklich kein fortschritt... mehr transistoren waren nie ein problem!


ich würde mich gerne zitiern aber weis nichtmehr wo ich den eitrag geschrieben hab:

  1. Auftag für bild kommt an die Grafikkarte ^^
  2. Bild wird in 2 Zonen unterteilt die von der jeweiligen gpu gerendert wird
  3. die beiden Halbbilder kommen in den Speicher
  4. wenn das letzte der beiden Bilder fertig ist (kann ja sein das die eine hälfte mehr zum rendern hatte, da da gerade ne Granate explodiert usw.) wird das bild zusammengefügt und raus gegeben
  5. das nennt man synchronisieren
  6. da ein halbes bild theoretisch die halbe Renderzeit braucht sind die Halbbilder nach der halben zeit fertig
  7. daher dauert ein Bildaufbau nicht 1ms statt 2 ms, kA von welchen Größenordnungen wir hier sprechen...
  8. die Framezeiten schauen dann so aus: 1,2,3,4,5,6
  9. im Gegensatz herkömmliches sli: 1,1.1,2,2.1, usw...
  10. somit bekommt nvidia zwar "genau soviel Frames" raus... allerdings kommen alle 2 ms 2 bilder was natürlich die spieldynamik stört
  11. ich wette ati hat sich meinen Beitrag zu herzen genommen und das so eingebaut ;-)

wie man sieht hab ich ne nvidia grafikkarte mit der ich sehr zufrieden bin, bis auf den fehlenden notebook suppoert usw... also bezeichnet mich nicht als ati fanboy... als techniker steh ich hald drauf wenn man mit geringerer chipgröße und weniger watt mehr leistung erzeugen kann ;-)
 
Zuletzt bearbeitet:
@Philze: bei ati wurden die multi-gpu probleme ebenso erwähnt wie bei nv auch. im übrigen sind mikroruckler nur eins von vielen nachteilen...
zu nennen wäre auch noch die abhängigkeit von spieleprofilen, verdopplung von verbrauch bei nur ca 60 % leistungszuwachs (wenns gut läuft), mehr lautstärke etc...
allerdings kann der gtx280 auch nicht nur glänzen... ich hoffe ja mal dass die aussagen bezüglich verbrauch aus dieser news zumindest halbwegs den tatsachen entsprechen:
https://www.computerbase.de/2008-06/nvidia-geforce-gtx-280-im-idle-bei-25-watt/
 
Ähm das eine 2x GPU VGA eine 1x GPU VGA schlagen kann ist was tolles ?

Ja, wenn die zwei Chips billiger herzustellen sind als der eine Chip schon.

Ich sehe das als ein muß, alles drunter wäre nur peinlich.

Nö, siehe oben.


Trotzdem würde ich in dem Fall immer zur 1x GPU greifen sofern der CF SLI Support von Games nicht perfekt ist und Probleme a la Microruckler nicht gelöst sind.

Neuere Spiele sind optimiert und bei älteren Spielen bekommst Du auch mit einer einzelnen Karte (schlechtest-mögliche Unterstützung) mehr Frames/sec hin, als das Auge auflösen kann.
 
@lübke


was soll denn da negatives dür den 280 drinne stehn?
 
ich verstehe es einfach nicht ... es ist doch völlig egal ob es ein, zwei hundert oder ein chip sind die auf einer karte eingesetz werden ... entscheident ist das es den high end - bereich darstellt.

nvidia geht den single-chip weg ... und wird früher oder später auch umlenken müssen.

ati geht jetzt schon den multi-chip weg um high-end produkte zu fertigen, was einfach mal die zukunft ist ... von daher freut es mich für amd/ati.

man kann also sehr wohl 1 gegen 2 chips vergleichen, solange sie auf einer leistungsstufe sind ... wieso wird danach immer wieder gefragt?

ich hab selbst eine 3870x2 und kann weder mikroruckler noch sonst was feststellen ... und wer mehr als nur zocken am pc macht und ein wenig ahnung hat ... bekommt auch den cf support bei JEDEM spiel ordentlich hin.

die 4870X2 wird meine ;)
 
Lübke schrieb:
@Philze: bei ati wurden die multi-gpu probleme ebenso erwähnt wie bei nv auch. im übrigen sind mikroruckler nur eins von vielen nachteilen...
zu nennen wäre auch noch die abhängigkeit von spieleprofilen, verdopplung von verbrauch bei nur ca 60 % leistungszuwachs (wenns gut läuft), mehr lautstärke etc...
allerdings kann der gtx280 auch nicht nur glänzen... ich hoffe ja mal dass die aussagen bezüglich verbrauch aus dieser news zumindest halbwegs den tatsachen entsprechen:
https://www.computerbase.de/2008-06/nvidia-geforce-gtx-280-im-idle-bei-25-watt/

Och, diesbezüglich kann ich dich beruhigen, denn auch für Idle Modus des GT200 hat ein Vögelein gezwitschert:

l2jj2j7x.jpg
 
Zurück
Oben