News ATi-Partner bringen Radeon HD 4890 X2

Habe ich mit meinen Vermutung doch recht behalten. :)

Wobei ich bei den erste News spekuliert habe, nur der Hersteller "Sapphire" würde ein solches Monster auf die Kunden loslassen.:p

@ Topic:

Ich find das so lala. Einerseits ist es krank, wie viel Strom so eine Karte "verpullvert". Andererseits würde ich die Preise der GTX 295 gerne fallen sehen, damit diese dann wieder die 4870x2 drückt und so weiter und so weiter ;)
Vorallem bei professionellen Grafikarbeiten hat ein solchen Monster mit entsprechenden Quadro-Treibern bestimmt einen Markt. Auch in einige Privatrechner wird sich die Karte wohl verirren, aber ich denke, dass es eher um die berüchtigte Leistungskrone geht.
 
Zuletzt bearbeitet:
Commander Alex schrieb:
Nö theoretisch auch nicht, sie hat 900Shader und nicht 800Shader aber das wurde ja schon besprochen, bei der Nvidia kommt halt noch dazu das sie insgesamt weniger als die GTX285 hat, aber das ist dann wieder wegen dem Verbrauch und der Wärmeentwicklung und eine GTX295 Ultra oder sonst was mit allen Shadern wirds evtl. auch noch geben, vor der 4890X2 gabs ja keine Grunde alle Shader frei zu schalten, somit kann man mehr "defekte" Chips verbauen.


ähm 900 Shader? Seit wann den das? Bitte um den Link dazu wo gezeigt wird dass sie 900 Shader besitzt. In meinen Augen war die News nämlich Mumpitz der nie belegt wurde...
Genrell komm ich mit deinem Post nicht ganz zurecht...

Bitte erklärs mir nochmal ;)
 
@Krautmaster
Ob die News nun stimmt oder nicht, ist ja egal die kann man sowiso nicht nutzen, weil es nicht hinkommt wegen der Aufteilung und warum sollte es nicht stimmen, ich glaub nicht das ATI immer perfekte Chips hat ein Teil ist bestimmt defekt und sowas wird nunmal gemacht um weniger Abfall zu produzieren.
 
Ou man wenn ich mir jedes 3te Kommentar durchlese ist jedes 2te davon Schrott!
Meinche Leute hier sollten nochmal ein wenig ihr wissen aufstocken bevor sie Dinge wie

"das ding im CrossfireX (16GB)"
"wird von einem i7 limitiert"
"das ding sind also zwei 4870X2 auf einer Karte oder wie gehen 4GB"

Outsch - böse böse.
 
Was man ja bei der Entwicklung der HD 4870 1GB gesehen hat.Zu Anfang war sie langsamer als eine 512er und nun ist sie deutlich schneller aber erst als sich ATI hingesetzt hat und ihre Treiber daraufhin optimierten.
Dann hast du dir nur die falschen Tests angesehen, PCGH hat die 1GB Version sofort empfohlen als sie erschienen ist, wenn der 4870 512 der Vram aus geht ist teilweise eine 8800GTX 768 schneller, war schon immer so und wird auch immer so bleiben.


ati oder nvidia möchte mit diesen karten niemandem das geld aus der tasche ziehen. die könnten sogar damit leben wenn keiner diese karten kauft denn der gewinn aus diesen karten ist minimal.
das ist einfach nur: wir haben das beste.
Also bei der GTX 295 ist der Gewinn definitiv nicht minimal, es gibt genug Leute die im GPGPU Sektor das Teil in 4er Päckchen ins System klatschen :D und damit rechnen. Solche Monsterkarten wie GTX 295 sind zumindest bei NV nicht nur zum Prollen, sondern sind sogar Green IT weil sie jede CPU in sachen Watt/Performance stehen lassen:
https://www.computerbase.de/forum/threads/programme-die-mit-der-gpu-rechnen.426771/#post-4303110
https://www.computerbase.de/2009-04/was-macht-man-mit-23-geforce-gtx-295/



Ich weiß, ATI hält seine Kunden für Idioten, will es nicht unnötig kompliziert machen und niemanden verwirren. Einverstanden, aber könnten sie die Optionen nicht wenigstens im Expertenmodus oder von mir aus auch nur über die Registry anbieten, ich würde gern wieder zu einer ATI-Karte greifen.
Vergiss es, AMD konzentriert sich voll auf Mainstream, da hat ein Expertenmodus und CF einfach keinen Platz bzw. dafür fehlt einfach noch das Geld. Aber trotzdem versuchen sie irgend wie oben mitzuspielen?

MfG Kasmo
 
MixMasterMike schrieb:
So eine Karte ist natürlich nur was für unvernünftige Enthusiasten (Freaks) und es ist traurig dass immer noch so ein Markt dafür existiert, dass die Hersteller schon bei AMD betteln gehen, dass sie so ein Monster herstellen dürfen, auch wenn es eigentlich totaler Blödsinn ist. Wird Zeit dass die Konsumenten endlich mal ne andere Richtung einschlagen.

Kein Problem, wenn die Spieleentwickler ressourcenschonende Crysisgrafik bringen würden, wäre ich der erste, der sich 'ne Low-End-Karte zulegt ...

Und ein Gamefan, der Crysis in 1920x1200 mit 16x 16x spielen will oder noch höher aufgelöst, der kommt um solche Karten nicht herum.
 
So eine Karte ist natürlich nur was für unvernünftige Enthusiasten (Freaks) und es ist traurig dass immer noch so ein Markt dafür existiert, dass die Hersteller schon bei AMD betteln gehen, dass sie so ein Monster herstellen dürfen, auch wenn es eigentlich totaler Blödsinn ist. Wird Zeit dass die Konsumenten endlich mal ne andere Richtung einschlagen.

Kein Problem, wenn die Spieleentwickler ressourcenschonende Crysisgrafik bringen würden, wäre ich der erste, der sich 'ne Low-End-Karte zulegt ...

Und ein Gamefan, der Crysis in 1920x1200 mit 16x 16x spielen will oder noch höher aufgelöst, der kommt um solche Karten nicht herum.

Ich schließe mich MixMasterMike an. Das dieser Markt existiert liegt nicht an der Hersteller und Entwicklern, sondern letzendlich bei uns. Wir sind die, die entscheiden was für eine Hardware wir kaufen. Sinkt der Absatz für solche "Monster"-Grafikkarten muss der Hersteller umschallten. Auch die Entwickler von Games müssen sich dann der veränderten Situation anpassen. Mit vernumpft kommen wir um diese
Karten herum.
 
sag mir mal ein game wo ich 1784 oder 2048mb ram brauch (höchste qualieinstellung) für ne auflösung von 800*600 wie dus gesagt hast, oder wenn wirs mal realistisch sehen bei 1680*1050?

Erstens hab ich nicht gesagt, dass es ein Game gibt, wo größergleich 1792 MB VRAM gebraucht werden (obwohl es da ein paar gibt) und zweitens spielt die Auflösung eine Untergeordnete Rolle beim VRAM-Verbrauch. Die Texturgröße ist der primäre Faktor!

Alle modernen Games verbraten bei höchsten Grafikeinstellungen ingame (+ 2560x1600) selbst mit 1xAA und 0xAF mehr als 896 bzw. 1024 MB VRAM!

Kommt AA/AF dazu, kommen wir den 1500 MB sehr nahe, und dass in allen modernen Games! Ausreißer sind, wie du schon gesagt hast, GTA4 und Crysis (je bis 2 GB, samt Mods).
Heftigster Fall ist und bleibt (zumindest für eine Weile) Flight Simulator X:

Bei einem Freund, der einen i7 + 3x GTX 285 2GB + 24 GB RAM + 2x 24" drin hat, haben wir es geschafft, mit diversen Addons und Mods für den FSX laut Rivatuner 3,2 GB VRAM und rund 15 GB RAM nach 5 Stunden (wurden mit der Zeit immer mehr) zu belegen, jetzt alles klar?

Die 896 MB der GTX 295 sind Schwachsinn, die doppelte Menge sind von Nöten. Vielleicht schafft das Single-PCB Abhilfe. Dort sind wieder 28 (2x 14) Speicherchips verbaut, nur ist die Frage, ob es diesmal 1Gbit-chips sind statt 512er wie bei der jetzigen Dual-PCB-Ausführung...

Gruß Thax
 
Zuletzt bearbeitet:
v4uen schrieb:
Wahnsinn, dass es immernoch leute gibt, die sich für sowas interessieren.
Ansonsten wie bei allen x2 karten: rausgeschmissenes geld.

Also ich hab ne 4870X2 und kann mich nicht beklagen ich kann Spiele in höchster Auflösung daddeln + AA und AF und finde nicht das ich mein Geld rausgehauen habe. Spiele die mit 8800GTS 512MB extrem laggy waren rennen jetzt wie hölle. Achja und von Microrucklern hab ich persönlich noch nix gemerkt von daher bin ich von X2 Sachen begeistert.
Kann aber auch daran liegen das ich Farbenblind bin und daher Microruckler nicht so schnell sehe. :freak:
 
Ich finds ja mal lustig, wie sie sich alle aufregen wegen Abwärme und Stromverbrauch :D

Diese Grafikkarte ist nur was für Enthusiasten (die sich auch en Core i7 965 holen würden :lol: ) und die deswegen auch zu viel Geld haben. Klar kommt auf diese Grafikkarte ein spezieller Kühler bzw. ne Wasserkühlung und ne Lösung fürs Netzteil wenn man zwei dieser Karten betreiben will, findet man auch noch.

Ein Normaluser holt sich so eine eh nicht, wozu auch? HD4890 reicht doch dicke.

Man muss hier immer schön die Zielgruppe betrachten, bevor man es kommentiert ;)

Und jedem, der so eine Graka mal besitzen sollte, wünsche ich viel spaß damit ;)

MfG paxtn
 
MixMasterMike schrieb:
So eine Karte ist natürlich nur was für unvernünftige Enthusiasten (Freaks) und es ist traurig dass immer noch so ein Markt dafür existiert, dass die Hersteller schon bei AMD betteln gehen, dass sie so ein Monster herstellen dürfen, auch wenn es eigentlich totaler Blödsinn ist. Wird Zeit dass die Konsumenten endlich mal ne andere Richtung einschlagen.

Der Markt existiert auf jeden Fall, ist aber was die Verkaufszahlen angeht eher gering. Es geht dabei vor allem um Prestige. Schade finde ich auf jeden Fall, dass dadurch der High-End Bereich sehr forciert beliefert wird, dafür solche vernünftigen Midrange-Karten wie die HD 4670, die für die meisten Anwender ausreichend sein sollte und zudem schön sparsam ist, erst später kommen und immer wieder stiefmütterlich behandelt werden, wenn es um die Veröffentlichung geht. Lange sah es jetzt so aus, als würden die HD 4890 und die HD 4770 zeitgleich auf den Markt kommen. Nun hat aber wieder die teure High-End-Karte das Rennen gemacht und die vernünftige Karte in der Mittelklasse muss sich gedulden.
 
Lübke schrieb:
die mikroruckler sieht man auch erst, wo die frameraten nicht mehr so extrem hoch sind. solange eine 4870 reicht, sieht man auch bei einer 4870x2 sicherlich keine mirkroruckler.

Aber mann kennt nicht jedes Spiel auswendig. bei Lost Planet zB könnte man auch einfach die Demo spielen und meinen so würde das Spiel bei mir laufen. Aber bestimmte 100 Meter große Gegner mit DX10 Fell bringen jedes System einfach in die Knie wo sonst das Spiel eigentlich flüssig läuft.
 
Ich bin dafür, dass jedem PC / Laptop oder jeder Grafikkarte ein Duden beigelegt wird.

Ich zitiere:

"vernumpft" -> Vernunft ?
"verpullvert" -> ...
Die Liste könnte ewig so weiter gehen.
Zum geistigen Dünnschiss kommt noch die Unfähigkeit, Wörter des täglichen Gebrauchs zu schreiben =)
 
Also ich hab selbst eine X2 und diese tollen Microruckler fallen eher weniger ins Gewicht, da die Grenze der 30 FPS einfach nicht unterboten wird. Jedoch habe ich einen Mehrverbrauch an Strom von ca 40 Euro im Jahr, was aber völlig OK ist. Da braucht mein 52" LCD mehr ;) Ich bin glücklich mit meiner Karte und werde auch immer wieder zu einem X2 Modell greifen, wenn die Singlechip Variante nicht ausreicht.
 
Eine 4890 mit 1GHz und 4 GB GDDR5... Das ist ja echt mal schwachsinnig. So gut wie kein Spiel kann bis jetzt 1 GB voll ausnutzen, da sind doch 2 GB pro Chip (also die 4 GB pro Karte) total übertrieben.

Statt der 4 GB mit 256 Bit-Speicherinterface sollten sie lieber bei 2 GB bleiben und stattdessen auf 512 Bit umsteigen. Das wäre eine Verdopplung im Speicherdurchsatz, das gäbe also mächtig FPS.
 
Das ist ja echt mal schwachsinnig. So gut wie kein Spiel kann bis jetzt 1 GB voll ausnutzen

Siehe Post #131:

Alle modernen Games verbraten bei höchsten Grafikeinstellungen ingame (+ 2560x1600) selbst mit 1xAA und 0xAF mehr als 896 bzw. 1024 MB VRAM!

Statt der 4 GB mit 256 Bit-Speicherinterface sollten sie lieber bei 2 GB bleiben

2 GB pro Chip, also können maximal 2 GB genutzt werden:rolleyes:

und stattdessen auf 512 Bit umsteigen. Das wäre eine Verdopplung im Speicherdurchsatz, das gäbe also mächtig FPS.

Das möcht ich anzweifeln, so schnell kann die GPU die Daten gar nicht verarbeiten, und erst recht nicht mit deinen gewünschten 1 GB VRAM (nochmals :rolleyes:)
 
Zuletzt bearbeitet:
Zurück
Oben