News Viele Previews der ATi Radeon HD 4870 X2

ich würde aber vorher schon lesen welches zitat ich benutzt hab..

es ging darum 2 karten mit einer von nvidia zu vergleichen, und dies trifft bei der X2 nicht zu, weil es halt praktisch nur EINE KARTE ist, und wenn du als fanboy meinst das äpfel mit birnen verglichen werden ist dies deine meinung die ich akzeptiere, BASTA!

ich bin kein fanboy, ich nutze im moment eine nvidia karte, meine nächste karte wird aber eine ATI sein weil das P/L verhältnis stimmt!

und wenn die da 4 chips drauf pappen, ist dies immerhin noch auf EINER karte! :king:
 
holdrio schrieb:
Hehe, Selbsterkenntnis ist immer lobenswert! :lol:

Nebenbei, wieviele Slots die belegen ist sowas von unwichtig und gar nicht das Thema, es geht um EINE oder ZWEI GPUs auf der Karte, na, doch noch kapiert? :p
Single mit Dualkarten vergleichen ist eben Äpfel mit Birnen basta und alles andere als deutlich schneller für die 4870X2 gegen 280GTX wäre auch nur peinlich für Ati.

Ob die auf zwei oder eine Karte verteilt sind ist auch egal, es bleibt immer ein CF oder SLi System......und damit brav hoffen, dass Treiber und Game das auch brav unterstützen....ansonsten nix mehr mit supertoller Leistung wie im Test doch noch schluchz sniff.
Reine Theorie die Leistung der Dualkarten und oft genug nicht der Fall in der Praxis, der schnellste Singlechip (280 GTX)bleibt damit trotzdem für viele die interessantere Wahl....und die wesentlich problem und stressfreiere sowieso.

Freue mich schon auf das ganze Gejammer der 4870X2 Käufer durch alle Foren ab Herbst wenn Spiel X oder Treiber Y mal wieder nicht so wie will wie es sollte, aber selber schuld kann man da nur sagen.

Da werden so langsam manche wütend was? :D;)

Als ob die 4870 als Gegenstück für die GTX 280 vorgesehen war... lol... Preis/Leistung Verhältnis zählt hier... da auch laut manchen Quellen das Problem mit dem micro-stuttering gelöst sei (http://www.pureoverclock.com/story2165.html) ist die 4870 X2 einfach nur noch attraktiv... und obwohl Nvidia seine Preise drastisch gesenkt hat, kostet die GTX 280 nicht weniger als eine 4870 X2, die um Längen stärker ist! Warum ist denn Nvidia nicht mit einer Dual-GPU gekommen? Nvidia kotzt mich langsam an mit den scheiss Preisen ( sry jetzt werde ich sogar selbst wütend^^:D)

Wenn Nvidia's 55 nm GTX 280 nichts bringt und trotzdem verdammt viel Geld abzockt, werde ich wohl auf ATi umsteigen.... so einfach ist das.. langsam hab ich das Gefühl, dass Nvidia einfach Spass daran hat, seine Kunden abzuzocken!;)

@derjeck: bin der gleichen Meinung ;-)
 
Wenn´s dabei bleibt, Mikroruckler weg, Powerplay funzt richtig und noch mehr Spiele unterstützen CF, dann wird das vorerst die Monsterkarte. NV wird wenn überhaupt nur eine GX2 bringen, wenn die 55nm GPU´s draußen sind, bis dahin könnte ATI aber schon fast bei 45nm sein. Immerhin kann TSMC sowas schon produzieren.
 
holdrio schrieb:
Nebenbei, wieviele Slots die belegen ist sowas von unwichtig und gar nicht das Thema, es geht um EINE oder ZWEI GPUs auf der Karte, na, doch noch kapiert? :p
Single mit Dualkarten vergleichen ist eben Äpfel mit Birnen basta und alles andere als deutlich schneller für die 4870X2 gegen 280GTX wäre auch nur peinlich für Ati.

Ich weiß, dass CF von den vier oder fünf Spielen wo es für mich wichtig ist unterstützt wird. Angenommen ich habe 400€ für eine Grafikkarte - warum soll ich nicht eine X2 nehmen, die in den entsprechenden Titeln dann 50% schneller ist?
Ich meine, was interessiert es mich, wieviele GPUs da auf diesem Ding drauf sind? Und wenn es 20000 GPUs sind interessiert es mich nicht. Ich benötige nur einen Steckplatz, das ist erstmal interessant, weil ich kein Crossfire-Mainboard habe.
In all den anderen Spielen, die mich nicht so interessieren, kann CF meinetwegen nicht richtig funktionieren. Es ist ja nicht so, als stünde ich plötzlich völlig ohne Leistung da. AMDs Multi-GPU Strategie sieht nun einmal vor 2 kleinere GPUs gegen 1 große von nVidia antreten zu lassen und dann sollte man dies auch entsprechend vergleichen. Die Vor- und Nachteile der entsprechenden Strategien wurden ja schon hinlänglich erläutert. Deshalb aber einen Äpfel mit Birnen Vergleich zu konstatieren halte ich für völlig falsch.
 
y33H@ schrieb:
Video =! echtes Zocken :rolleyes:

cYa

ja,i finde ehrlich gesagt in den videos ist es total übertrieben...weder bei Vantae, noch bei UT3 hatte ich bei den selben framerates so eine asynchronität...mit den treibern bessert sich wirklich was

Tigereye1337 schrieb:
@bigbee
- Bei einem PC wird 100% des Stroms in Wärme umgewandelt, das ist immer so!

ne, 100% gehn nicht. 100% gehn nirgends^^. zudem noch energie für die rechenarbeit benötigt wird, transistoren werden zwar warm,aber sie arbeiten nicht mit wärme, sondern mit einem stromfluss, der sich in arbeitsstrom und öffnungsstrom aufteilt. mit schaltfolgen lassen sich informative befehle erzeugen.

ich würde mal grob sagen, ca 70% der reingesteckten energie gehn in wärme über, aber 100% ist unmöglich,sonst würden wir transistoren als heizkörper verwenden^^.

holdrio schrieb:
Ob die auf zwei oder eine Karte verteilt sind ist auch egal, es bleibt immer ein CF oder SLi System......und damit brav hoffen, dass Treiber und Game das auch brav unterstützen....ansonsten nix mehr mit supertoller Leistung wie im Test doch noch schluchz sniff.


schwachsinn. wenn der treiber net mitläuft, bringt man CF selber zum laufen. leute, die sich so ne karte kaufen, sollten auch genug ahnung mitbringen um wenigstens eine Exe umbenennen zu können.


gruß
 
holdrio schrieb:
Hehe, Selbsterkenntnis ist immer lobenswert! :lol:

Nebenbei, wieviele Slots die belegen ist sowas von unwichtig und gar nicht das Thema, es geht um EINE oder ZWEI GPUs auf der Karte, na, doch noch kapiert? :p

hmm.. und warum haste dann keinen "nativen" Quad von AMD im Rechner? deine argumentation ist also nicht schluessig.. hier gehts nur um deine persoenliche abneigung gegen AMD/ATi.
 
Schinzie schrieb:
ne, 100% gehn nicht. 100% gehn nirgends^^. zudem noch energie für die rechenarbeit benötigt wird, transistoren werden zwar warm,aber sie arbeiten nicht mit wärme, sondern mit einem stromfluss, der sich in arbeitsstrom und öffnungsstrom aufteilt. mit schaltfolgen lassen sich informative befehle erzeugen.

Dann erklär mir mal, wo die Restenergie hingeht, nachdem sie zum Erzeugen der "informativen befehle" (unglaubliche Wortneuschöpfung) benutzt wurde ? In welcher physikalischen Energieform verbleibt sie ? Es gibt Energieerhaltung und Energie kann nur von einer Form in eine andere transformiert werden. Das würde bedeuten, die CPU schluckt die Energie wie eine Batterie und kann sie später wieder abgeben, was sie ja NICHT kann. Ergo: 100% Energie geht in Wärme.

Ja, dein PC ist effektiv eine Heizung.
 
Schinzie schrieb:
ich würde mal grob sagen, ca 70% der reingesteckten energie gehn in wärme über, aber 100% ist unmöglich,sonst würden wir transistoren als heizkörper verwenden^^.

eine elektrische schaltungen ist im endeffekt nur ein wiederstand.. also ja, nur ein "heizkoerper".. nagut, strahlung welche nicht waermestrahlung ist darfst du abziehen.. nur ist ein PC keine mikrowelle!
 
Kann bigbee nur beipflichten.

Die Energie, die nicht verwertet wird, wird in Wärme umgewandelt.

Im Übrigen ist dieser Thread sehr amüsant, da man sieht, welch riesige Kluften sich zwischen Argumentation und sinnlosem "meine-Meinung-und-damit-richtig-BASTA!" herrschen.

Es geht in erster Linie um Usability:

Der Käufer vergleicht eine Karte mit einer anderen, konkurrierenden.
Dabei entscheidend ist u.a. der Preis und die Leistung.

Bei ähnlichem Preis zweier konkurrierender Karten ist es doch vollkommen unerheblich, wie die Leistung zustande kommt.
Und wenn ein Hamster im Laufrad auf der Grafikkarte mehr Leistung erzeugt, als eine Grafikkarte mit 4 GPUS, dann ist das auch vergleichbar und es gewinnt der Hamster.

So einfach kann die Welt sein... ;)
 
@Unyu

Zudem wer holt sich eine X2, um einfach nur mehr FPS zu haben?

Wer holt sich eine GTX 280 wenn man eine HD 4870 oder GTX 260 bekommen kann? Nur um mehr Frames zu haben? Deine Aussage ist völliger Blödsinn.
 
Der Stromverbrauch ist abartig, damit war aber zu rechnen, oh mann nach dem Golem.de Chart kommt mir ja die HD4870 single garnimmer so stromhungrig vor, glaube das war eh AMDs Absicht an der Sache :evillol:

Dass ich mir jetzt doch wieder überlege ne HD4870 zu kaufen, statt der HD4850, soviel unterschied ist da echt nicht wenn man den chart der HD4870X2 daneben hat :lol:

Und die Enthusiasten wird das nicht jucken, die haben sowieso 700W Netzteile und mehr, die pappen ne HD4870X2 rein und gut ist, wer sich solche karten(oder eben auch GTX280) kauft, den interessiert sowieso kein Stromverbrauch! Also ich hab noch zwei monate Zeit mich zwischen der HD4870 und HD4850 zu entscheiden :)
 
Ich hab nen 800W-NT von Silverstone (sehr gut getestet), wollte eigentlich 2mal ne x2 reinpacken, damit ich endlich Mikroruckler habe (freue mich schon richtig drauf *g*) aber wenn ich den Stromverbrauch hochrechne komme ich an ca. 760 W unter vollast, das sind 92% Auslastung des NTs. Ok das NT ist so gut, dass es unter egal welcher Belastung absolut präzise die Spannung hält und auch 66A auf der 12V-Schiene kann, aber ich habe beinahe ernsthafte Zweifel ob das System so wirklich läuft.

(Bitte keine Antworten in der Form "ATi empfiehlt aber ein 2000W"-NT, ich kenne alle Kriterien, ich interessiere mich für Meinungen von Leuten die ihre System ihrerseits nahe an der Grenze betreiben und auch ein Silverstone besitzen)
 
ja ist effektiv 1gb

wirst nebenbei kaum ein spiel oder ne auflösung finden die mehr als 1gb vram belegt (zumindest keine auflösung die von einer heutigen karte unterstützt wird :D)
 
PiEpS schrieb:
übrigens sind die Frametimes mittlerweile bei der neuen x2 wie auch im Crossfire der hd4xxx Serie deutlich besser als noch bei der 3er Serie. Da sieht man keine "Microruckler" mehr.

interessant
zeig mir doch mal bitte die liste der frametimes die du offensichtlich zur verfügung hast, da sonst dein post doch recht spekulativ wäre
 
Btw Fraps alleine ist nicht so aussagekräftig. Nur weil die Frames regelmäßig kommen, müssen sie nicht gleich alt sein.
Dafür gibts Beweise.

OC_Master schrieb:
Wer holt sich eine GTX 280 wenn man eine HD 4870 oder GTX 260 bekommen kann?
Der, dem die Leistung einer 260 nicht reicht um die gewünschte BQ flüssig zu fahren.
Bei einer X2 musst du nach den Aussagen, die man so liest erstmal die Leistung für mehr FPS nutzen, den Rest kann man noch in BQ stecken.

260->280: 25% Mehrleistung = "25% mehr BQ".
4870->4850X2: 27% Mehrleistung = "~12% mehr BQ" <- geschätzt nach wiederholten Aussagen "aber mit einer X2 habe ich doch nie unter 30FPS, das es auch mit 50FPS µRuckler gibt juckt uns nicht, weil wir spielen mit 60fps, obwohl wir zu 25fps keinen Unterschied sehen"
 
bigbee schrieb:
Dann erklär mir mal, wo die Restenergie hingeht, nachdem sie zum Erzeugen der "informativen befehle" (unglaubliche Wortneuschöpfung) benutzt wurde ? In welcher physikalischen Energieform verbleibt sie ? Es gibt Energieerhaltung und Energie kann nur von einer Form in eine andere transformiert werden. Das würde bedeuten, die CPU schluckt die Energie wie eine Batterie und kann sie später wieder abgeben, was sie ja NICHT kann. Ergo: 100% Energie geht in Wärme.

Ja, dein PC ist effektiv eine Heizung.


nehmen wir mal an, die gpu würde 100% der elektrischen Leistung in Wärmeleistung umwandeln, woher nimmt sie dann die Energie um mathematische Vektorrechnungen und fouriertransformationen zu lösen? geht das mit wärme?

informative Befehle sind 1.strom fließt, 0. Strom fließt nicht. diese werden im binärsystem zu befehlen formuliert, weißte aber sicherlich.
und selbst wenn du nur einen elektrischen Schaltkreis mit nur einem widerstand drinne hast, was du bei einer GPU vereinfach annehmen könntest, wird nicht 100% der zugeführten Leistung in wärme umgewandelt. zwar ein großteil,aber nicht alles. Ein teil geht über in elektromagnetische Strahlung, ggf, je nach aufbau und kondensatorfülle in elektrische Felder (was meinste wieso beim auto die boardelektronik abgeschirmt ist) usw. diese fressen auch leistung, kannste sogar berechnen, aber es ist keine Wärmeleistung.

ein transisotr,woraus eine GPU besteht hat zwei ströme die bei pnp oder npn dotierten Halbleitern durchgehn, dort über einen aktivierungsstrom (oder wie man den jetzt richtig nennt) einen arbeitstrom durchschalten.

wenn eine GPU 100% der leistung in wärme umwandeln könnte,woraus elektrische befehle nicht bestehn, hättest du keinen wirkungsgrad, bzw einen von 0. und ein bild hättest du auch nicht.

der erste Hauptsatz der thermodynamik ist mir durchwegs ein begriff, sagen wir mal,es ist/wird mein Beruf. und gerade mit diesem kannste dir erschließen,dass es keine 100% sein können.


gruß
 
Ähm du hast da nen denkfehler... nach unserem aktuellen verständnis der physik verbraucht absolut NICHTS energie. Energie kann nur von eienr Form in die andere übergehen.

Wenn wir umgangssprachlich von "Energieverbrauch" reden meinen wir in der regel dass Energie in wärme, andere strahlung oder kinetische energie umgewandelt wird.
Die energie die dein PC "verbraucht" teilt sich also in einen winzigen teil kinetischer energie (bewegung der festplatte und der lüfter), etwas wird in form von licht abgestrahlt (monitor, leds), etwas als em strahlung und der rest wird als wärme abgestrahlt.
Natürlich macht die wärme keine 100% aus aber halt 9x%.


Deine informativen befehle sind auch nur fließender strom in leitungen die einen (sehr geringen) widerstand haben -> sie erhitzen sich
Sie bestehen nicht aus wärme aber sie erzeugen wärme.
 
Zuletzt bearbeitet:
ja,verbraucht war blöd formuliert stimmt...

aber zb wird die elektrische leistung neben, der primär vorhandenen Wärmenergie, auch in innere Energie umgewandelt. (glaub ich^^)


nur weiß i, dass es sicherlich keine 100% umwandlung in wärme ist, das wäre 100% energieverbrauch bzw verlust, da die wärme ja net erwünscht ist.


außerdem steuert die GPU auch andere komponenten an, gibt signale weiter, was auch einen teil der reingesteckten energie umwandelt,bzw weiterleitet und nicht in wärmeenergie umwandelt.

gruß
 
@ derjeck
Falsch es sind 2 Karten die Mikroruckler und Sofwareabhängigkeit bleibt nur der Speicher wird zusammen genutzt, somit ist es einfach nicht wahr dass man die X2 mit einer vergleichen kann.
 
Man Schinzie, du stotterst dir ja einen ab ;) Chips funktionieren dadurch, dass sie Ladungen verschieben und damit Strom durchschalten oder eben nicht. Es fliessen die ganze Zeit Ströme, sonst nix und die erzeugen Wärme, denn wo Strom fliesst ist immer ein Widerstand der Wärme erzeugt. Die Art wie die Ströme fließen und an welchen Ausgängen zu welcher Zeit dann Strom anliegt oder dann eben nicht interpretieren "wir Menschen" als Bits und Bytes. Dem Strom ist es egal, was er "bedeutet", er fließt oder er fließt eben nicht. Wieviel Strom fließt, hängt vom Widerstand ab, je weniger Widerstand ein System hat desto mehr Strom fließt (automatisch). Du musst das Ganze auf einer ganz physikalischen Ebene betrachten.

Achso selbst Festplatten erzeugen keine kinetische Energie, also nicht dauerhaft. Klar, es wird ein wenig Energie in ihnen "gespeichert" während sie rotieren (als kinetische Energie), verbrauchen aber Strom, da die Reibung der Kugellager die Festplatten ja bremsen. Gäbe es keine Reibung (und Reibung erzeugt immer Wärme) würden die Platten ohne Energiezufuhr unendlich lange rotieren... tun sie aber nicht.

Du darfst nicht nur den primären Weg der Energieverwertungskette betrachten, sondern auch sekundäre, denn sobald die Platte anhält und abkühlt ist sie in dem gleichen "Energetischen Zustand" wie sie vor dem Einschalten war. Somit wurde alle Energie in Wärme abgestrahlt, denn woanders kann sie nicht hin, es sei denn du hast nen schwarzes Loch im PC war die Energie absorbiert und nie wieder abgibt.

Aber immerhin machen wir hier nochmal nen kleinen Grundkurs Physik, ist ja auch nicht schlecht ;) Übrigens, Wärme ist auch Strahlung, nur mit einer größeren Frequenz, deswegen kannste Wärme auch mit einer Infrarotkamera "sehen", jedoch nicht mit dem bloßen Auge.
 
Zuletzt bearbeitet:
Zurück
Oben