Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Normalerweise gibt man ja mehr Geld aus, damit es nicht mehr ruckelt, bei Dualchip-Karten zahlt man mehr, damit es wieder ruckelt.
Nein Nein, da bleib ich lieber bei Singlekarten.
es gibt genug Spekulationsfäden auf diversen Seiten, da kann sich jeder sein eigenes Süppchen kochen. Ich gehe aber davon aus, dass die neue ATI Generation deutlich schneller als eine 285er ist. wie schnell sie letzlich sind wissen wir bald. kaufen würde ich aber erst wenn ich weiß was nvidia auf den markt schmeißt. so oder so wird sich dann der preis bewegen... und hoffentlich immer schön nach unten.
Dann bist du aber selbst Schuld wenn du 4 Monate nicht überbrücken kannst und dir jetzt noch eine Karte der alten Gen holst. Das nennt man dann wirklich Geld verbrennen.
Wow ! ATI hat es endlich kapiert, daß es sowas wie das Weihnachtsgeschäft gibt. So wie die das mit den Launches zuvor immer diesbezüglich versemmelt haben. Da scheinen wohl endlich Leute am Ruder zu sitzen die Ahnung von Marketing haben.
Das könnte in der Tat etwas eng werden, 2 Gbit Chips gibt es bisher ja noch nicht. Allerdings hat NVIDIA es ja auch geschafft bei der Neuauflage der GTX 295 28 Speicherchips plus zwei Mal NVIO (der ja bei ATI entfällt) auf ein PCB zu quetschen. Sofern ATI nicht den Fehler macht, wie bei der 4870 X2 schon im Referenzlayout doppelseitig - also mit je acht Chips pro Seite - zu bestücken, sollte es auch ohne größere Veränderungen am PCB möglich sein 4 GB zu verbauen.
Lord Quas schrieb:
Kannst du uns bitte den Link zu dieser Information geben?
Leider konnte ich in deinen bereits geposteten nur etwas über die HD4000er Reihe lesen, Danke!
Direkt zur 5000er Serie gibt es, was Veränderungen an der grundsätzlichen Funktionalität der MultiGPU Karten - die nötig wären um die Mikroruckler wirklich komplett zu eliminieren - angeht, natürlich noch keine Aussage. Allerdings sagte Richard Huddy im Interview in der letzten PCGH sinngemäß, dass man zwar an treiberseitigen Verbesserungen arbeite (benutzerfreundlichere Profile, etc.), grundlegende Veränderungen an der Hardware im Hinblick auf Crossfire (speziell nannte er Dual-Ported-VRAM und geteilte Busse) sich aber zu stark im Preis der SingleGPUs niederschlügen.
HD4890 schrieb:
wenn ati auf 256 mbit speicheranbindung setzt, dann sehe ich schwarz
256 Mbit wären ja gar nicht so schlecht... Aber im Ernst, ich war zu Anfang auch skeptisch, was die im Vergleich zur 4870/4890 scheinbar nur gering gesteigerte Speicherbandbreite angeht. Setzt man diese aber ins Verhältnis zu einer 4850 oder 4770, steigt die Bandbreite in ähnlichem Maße wie die Rohleistung. Übrigens listet z.B. Hynix bereits GDDR5 mit 6.0 Gbps (also über 50% schneller als auf der 4890) mit angeblich sofortiger Verfügbarkeit. Was dieser kostet, ist allerdings eine ganz andere Frage...
Endlich crysis mit 4/16 und 120 fps 1920-1200 very hi flüssig.die neuen Karten werden eine Revolution! Und Windows 7 kommt auch noch im Oktober . Ich liebe es!
Es ist eine vollkommen neue Architektur - da sagt der Catalyst 9.8 rein gar nichts darüber aus inwieweit eine HD5870 X2 über das Microrucklerproblem verfügt.
Du traust also nicht zu, dass der Takt des Speichers um 200Mhz erhöht wird? Das ist nämlich bei dieser Annahme der einzige Unterschied zwischen 4770 und 5850 (+ das hier spekulierte 256Bit-Interface). Natürlich ist das rein hypothetisch - du darfst mir aber gerne sagen, wieso ein 256Bit-Interface zu wenig sein wird. Natürlich auch rein hypothetisch.
Bei GDD3 ist 256bit klar zu wenig, bei GDDR5, der auch noch hoch taktet sieht die Geschichte komplett anders aus.
Edit: Hynix liefert bereits bis zu 6Gbps GDDR5 (http://img193.imageshack.us/img193/6540/hynixgddr5.png ), das wäre bei 256Bit 192GB/s. Nehmen wir mal an, dass nicht der teuerste GDDR5 verwendet wird, und nehmen realistische 5Gbps sind wir bei den 160GB/s. So abwegig ist das nicht.
Viele verbinden mit 256Bit einfach die schlechte Performance die mit GDDR3 erreicht wird. Da bisher praktisch alle Karten nur GDDR3 hatten (unter 4870) war eben bisher immer 256Bit = schlecht. Nur darf man eben nicht nur das Speicherinterface betrachten, sondern muss gleichzeitig den verwendeten RAM miteinbeziehen.
Normalerweise gibt man ja mehr Geld aus, damit es nicht mehr ruckelt, bei Dualchip-Karten zahlt man mehr, damit es wieder ruckelt.
Nein Nein, da bleib ich lieber bei Singlekarten.
Das kommt bei CF wie auch bei SLI ganz drauf an in welchem FPS Bereich das System agiert und ist zusätzlich von Anwendung zu Anwendung verschieden. Über 40 FPS ist es (natürlich rein subjektiv) meiner Erfahrung nach nicht wahrnehmbar.
Das Problem wird wieder sein das eine 5870 zu wenig sein wird, also wieder 2 wie bei der 4 Generation auch.
Die sind inzwischen auch als Paar am Limit.
Das bezieht sich natürlich nur auf FullHD und entsprechende Qualitätseinstellungen.
1) Auch Single-GPUs haben keinen gleichmässigen Frameverlauf.
2) Ob und wie stark die MR bei der 5870X2 sein werden, das zeigen uns hoffentlich die ersten Tests hier auf CB.
Also Ruhe bewahren und nicht gleich mit Fachbegriffen rumwerfen zu Dingen, die noch nicht zu beweisen sind.
Der Verdacht allerdings ist allerdings naheliegend, da hast du wohl Recht, das ATI sich nicht so stark um das MR-Problem kümmert wie NVIDIA.
wenn man beim G300 ebenso von spekulativen Daten ausgeht dann kommt auch fix eine über doppelt so schnelle Karte als die GTX 285 raus. Vor allem wenn man dann noch Shaderoptimierungen oder eine neue Architektur dazunimmt.
- Multiply Instruction Multiple Data (MIMD)-Einheiten
- neues Power- und Speichermanagement
- 512 Shadereinheiten
- GDDR 5 Speicher
- 512 Bit Speicherinterface
- Anzahl der Shadercluster von 10 auf 16
- 128 statt 80 TMUs
heißt in meinen Augen Minimum 200% einer GTX 285.
Mit Optimierungen am Shader mehr. Maybe 250% ?
Bin mal gespannt auf die anstehenden Tests bei FullHD Auflösung.
Wenn eine 5850 min. 25% schneller ist als eine 4850 wird sie gekauft solange der Preis stimmt. (kleiner 200 Euro)
es liegt weniger an DX als an dem verwendeten Rendermodus.
Der Treiber kann nur die Grafikkarten optimaler ansteuern, damit die Bilder in den selben (kurzen) Abständen dargestellt werden können.