News ATi zeigt Radeon HD 5870 X2

Dauert nicht mehr lange und schon werden hier die ersten diese Karte kaufen und mit 999FPS prahlen. Größer, schneller, besser. Egal ob man das jetzt braucht oder nicht ;)

Find ich überdimensioniert. Selbst die 4850 langt bis jetzt schon für 1920x1200. Mit der 4870 kann man schon sehr gute Ergebnise erzielen.. Bald sieht man vor lauter Effekten das Ziel des Spiels nicht mehr ^^
 
Irgendwie ist die Argumentation hier wie so oft faszinierend.....da wird bei den Preisen eine 8 Monate alte Grafikkarte (GTX295) bzw. dessen Sparvariante (Single PCB) herangezogen um mit den aktuellen Preisen zu verdeutlichen das eine kommende Grafikkarte in ganz neue Preisdimensionen vorstößt, die bereits vor Jahren oder gar Jahrzehnten ein alter Hut waren.

Weiter so! *popkorn hol*
 
Ich habe mal eine prinzipielle Frage zur RAM Aufteilung bei CF:

Dass der Chiptakt im CF Verbund auf den kleinsten gemeinsamen Nenner gedrosselt wird, weiß ich.
Aber wie ist das mit dem RAM?
Addieren die sich zu einem Gesamten? Oder werden die RAMs anteilig gefüllt?

Konkretes Beispiel:
1x 5870 mit 1GB
1x 5870x2 mit spekulierten 2x 1GB
 
Octoboy schrieb:
Ich habe mal eine prinzipielle Frage zur RAM Aufteilung bei CF:

Dass der Chiptakt im CF Verbund auf den kleinsten gemeinsamen Nenner gedrosselt wird, weiß ich.
war die beschränkung nicht mit CrossfireX nichtig geworden?

Aber wie ist das mit dem RAM?
Addieren die sich zu einem Gesamten? Oder werden die RAMs anteilig gefüllt?

Konkretes Beispiel:
1x 5870 mit 1GB
1x 5870x2 mit spekulierten 2x 1GB

Jeder Grafikchip brauch derzeit seinen eigenen Grafikspeicher, da wird nichts geteilt.
Bei 3 Grafikchips mit je 1GB Grafikspeicher hast du somit also nachwievor effektiv 1GB Grafikspeicher.
Mehr Grafikspeicher wird deshalb angeraten da durch die höheren Grafikeinstellungen auch mehr Grafikspeicher belegt wird. Ist dieser voll und die benötigten Daten müssen in den deutlich langsameren Arbeitsspeicher ausgelagert werden, dann bricht die Framerate hoffnungslos ein, da die Grafikkarte entsprechend lange auf die Daten warten muss.
 
Danke für die Erklärung!
Und wie ist das, wenn die im CF vorhanden Grafikchips verschiedene Ramgrößen haben?
 
Da in jedem Grafikspeicher im grossen und ganzen die gleichen Daten vorliegen ist die Folge selbsterklärend, denn die Limitierung setzt so oder so durch den kleinsten Grafikspeicher ein.
Werden beide auf die Karte mit der kleinsten Speichermenge runtergestuft lagern beide zur gleichen Zeit aus, muss nur eine Grafikkarte den Arbeitsspeicher nutzen würde die zweite GPU auf die erste warten, da die GPUs ja abwechselnd die Bilder liefern...so oder so kommt es also frühzeitig zum Framerateneinbruch.
 
Hoffen wir mal, dass die x2 genau wie die Single programmierbare Spannungswandler bekommt :)

Auf diesem (Riesen-)Bild sieht man das gut, da ist ein kleiner Chip auf der "Linie der Unterseite des Dreiecks", da steht VT1165MF drauf, diese kann man programmieren über Software wie Rivatuner und so.
Hoffentlich gibts die bei der x2 auch... Konnte meine 4870x2 schon von 750 auf 940MHz Core Bringen :D
 
Ich finde bei der Karte sollte ein Gehäuse als Packungbeilage mitgeliefert werden. So wie man es mich Adaptern etc tut. :D:D
 
Octoboy schrieb:
Ich habe mal eine prinzipielle Frage zur RAM Aufteilung bei CF:

Dass der Chiptakt im CF Verbund auf den kleinsten gemeinsamen Nenner gedrosselt wird, weiß ich.

Der Chiptakt ist egal.
Es können unterschiedliche Coretakte verwendet werden. Dann ist halt der eine Kern etwas schneller aber das macht doch nichts. ;)
Hab selber schon 2 HD4850er in CF laufen lassen und konnte die Taktraten bei beiden Karten beliebig ändern.
Ich hatte sogar ein HD4870X2 mit der HD4850 verbunden und es liefen alle Kerne mit ihren angegebenen Takten.

Aber wie ist das mit dem RAM?
Addieren die sich zu einem Gesamten? Oder werden die RAMs anteilig gefüllt?

Konkretes Beispiel:
1x 5870 mit 1GB
1x 5870x2 mit spekulierten 2x 1GB

Beim Ram ist das etwas anderes.
Es kann ja kein Crossfire funktionieren wenn der eine Kern weniger VRam hat und somit nichtmehr mit dem anderen Kern zusammenarbeiten kann.
Deshalb wird mittels Treiber die VRam größe auf den kleinsten gemeinsamen Nenner gebracht was aber in diesem Fall egal ist da alle Kerne über 1 GB verfügen.
Das Catalyst Control Center gibt dabei eine Warnung aus das Crossfire nicht optimal funktioniert und man Performance verliert.

Bei Crossfire oder SLI ist es leider so das selbst bei 3 Karten mit jeweils 1 GB-VRam das System nur 1 GB nutzen kann da jeder Kern die selben Daten bekommt.
 
Zuletzt bearbeitet:
Wenn DAS mal geändert wird, DANN werden wir Umbrüche in der allgemeinen Systemarchitektur erleben.
Nicht vorher. Jedenfalls keine sehr großen denke ich.
 
dann sollte als erstes mal die x86 abwärtskompatibilität über bord geworfen werden, das kostet vorne weg mal 20% performance.
aber so wie das läuft werden wir damit noch 20 jahre leben müssen. auch das a20 gate gibts immer noch, zumindest bei aktuellen amd prozessoren
 
Der Chiptakt ist egal.
Es können unterschiedliche Coretakte verwendet werden. Dann ist halt der eine Kern etwas schneller aber das macht doch nichts.

Okay, cool, wieder was dazu gelernt. War halt nur die (veraltete) Info, die ich hatte.
In meiner Planung aber sowieso egal, da es sich um die Standard Karten handeln wird.
Die haben die gleiche "Startposition" und können dann gleichmäßig übertaktet werden.

Beim Ram ist das etwas anderes.
Es kann ja kein Crossfire funktionieren wenn der eine Kern weniger VRam hat und somit nichtmehr mit dem anderen Kern zusammenarbeiten kann.
Deshalb wird mittels Treiber die VRam größe auf den kleinsten gemeinsamen Nenner gebracht was aber in diesem Fall egal ist da alle Kerne über 1 GB verfügen.

Auch hier für meine Absichten irrelevant (1x 5870 mit 1GB, 1x 5870x2 mit spekulierten 2x 1GB), aber:
Falls die 5870x2 jetzt mit mehr als 2x 1GB rauskommen sollte, dann würde ich deren Mehrleistung verschwenden, wenn ich sie im CF mit meiner 5870 1GB laufen lasse? Das wäre ja ein bißchen ärgerlich.

Naja, mal abwarten!
 
5870 Crossfire unter 2GB VRAM - pro GPU wohlgemerkt - ist sinnlos.
 
Gut, die 5870 1 GB habe ich nun aber schon (bzw. warte darauf, dass der Postmann sie bringt).
Konnte nicht warten, da ich nämlich sonst gar keine Karte hätte.
Aber wie gesagt, mal warten, wie die 5870x2 ausfällt.
Bzw. generell erstmal warten, bis Eyefinity überhaupt CF kompatibel ist (was aber dann ja spätestens bei der x2 der Fall sein muss).
 
Fipsi16 schrieb:
Grafikkarten für Gamer waren aber noch nie über 600€ oder?!?
Das meiste was ich jemals für eine Grafikkarte gezahlt habe war 520€ für eine X800XT PE und das werd ich nie wieder machen. Nur noch Mittelklasse, weil wenn man sich die Hardware kauft, ist sie schon wieder veraltet.

... wie kommst du denn zu dieser Annahme?

Selbst heute, wo Gamer-Grafikkarten so günstig sind wie noch niemals zuvor, gibt es neben der Asus Mars, die um die 1000€ kostet oder gekostet hat, noch wenigstens eine EVGA mit Wasserkühler, die diese Marke locker überspringt.

Und wenn ich bedenke, dass eine GF2 Ultra früher mal um die 1500 DMark gekostet hat, sind die heutigen Preise ja sogar richtig zivil ... ;)
 
Octoboy schrieb:
Falls die 5870x2 jetzt mit mehr als 2x 1GB rauskommen sollte, dann würde ich deren Mehrleistung verschwenden, wenn ich sie im CF mit meiner 5870 1GB laufen lasse? Das wäre ja ein bißchen ärgerlich.

Dann musst du dir eben eine HD5870 mit 2 GB Ram kaufen. Das passt dann schon.
Aber du willst dir doch nicht wirklich so ein System zusammenbauen ?
Multi-GPU mit 2 Kernen ist schon das Maximum am Erträglichen. Ab 3 GPUs wird triggie.
Da nehmen die Microruckler exponentiell zu und die Frame-Lags werden noch stärker. Außerdem glaube ich nicht das es zur Zeit eine CPU gibt die 3 RV870er versorgen könnte.

Hier auf CB gibts speziell einen Test für diese extrem MultiGPU-Konstellation.
Leider viel der Test für ATI nicht besonders gut aus. Hab hier mal das Fazit als Link aber es ist besser sich den ganzen Test durchzulesen.

https://www.computerbase.de/artikel...crossfire-x-test.962/seite-21#abschnitt_fazit


Max007 schrieb:
5870 Crossfire unter 2GB VRAM - pro GPU wohlgemerkt - ist sinnlos.

Warum ?
 
Zurück
Oben