News ATi: Offenbar kein direkter „Fermi“-Konter

Es würde aber reichen einfach zu sagen man legt die 5890 in limitierten Stückzahlen auf, zb. 20% der Chips die man für die 5870 hernimmt die fähig sind mit 1Ghz zu laufen bekommen einen 5890er Stempel aufgedrückt.

Leistungskrone zurückerobert und vermutlich immernoch mehr Stückzahlen am markt als Nvidia mit dem Fermi je haben wird.

Es sei denn Ati hat mit dem Namen noch was anderes vor....
 
GodCast schrieb:
Viel mehr Spannung versprechen die Entwicklungen am Mobilrechnermarkt, was da wohl von Nvidia DX11 technisch kommen wird?

Naja, ich sehe da schwarz, da Nvidia selbst auf dem Dekstop-PC-Midrange Markt die DX11 als sinnlos bezeichnet...
 
Mit der Einfürhung der 5000er Reihe hat AMD, aus folgenden Gründen die Nase vorne bzw. keinen Grund, Konkurrenzprodukte auf den Markt zu bringen.1
1. AMD war einfach Pioneer und hat die ersten Karten released.
2. Sie bieten für alle Segmente, von Low bis High-End gute Preis/Leistungsverhältnisse.
3. GTX 400 hin oder her, wenn Nvidia für alle Preissparten Konkurrenzprodukte liefert, darf man sich nicht wundern, wenn die Verkaufszahlen von AMD steigen^^
 
Kreisverkehr schrieb:
Sie hat noch nichts davon mitbekommen, hat keine Tests gelesen und ich war ob dieser ominösen sichtbaren/nichtsichtbaren Ruckler skeptisch. Bis ich die X2 getestet habe.
=> Sie fands ohne Vorwarnung rucklig, nicht flüssig, auch wenn die fps höher lagen, als man ein "normales" ruckeln hätte sehen können.

Nicht in jedem Spiel, aber dennoch fast überall.

Schön für dich, wenn du damit kein Problem hast, ich hab mir dadurch Geld gespart und werde auch kein Geld für Multi-GPU + Stromkosten ausgeben.

Gut das deine Freundin so gute Augen hat. Pass ja auf, dass sie nie ein fremdes Haar an dir entdeckt. ;)

Aber eine Frage bleibt natürlich schon: Hat's dich denn auch gestört?

Ich frage mich auch, ob du damit wirklich Geld gespart hast.. Wenn ich mit meiner Karte 2-3 Jahre spiele, fahre ich brutto günstiger, als wenn ich mir jedes Jahr eine neue geholt hätte. Von den Stromkosten einmal abgsehen.
 
d-Raven-b schrieb:
Ich frage mich auch, ob du damit wirklich Geld gespart hast.. Wenn ich mit meiner Karte 2-3 Jahre spiele, fahre ich brutto günstiger, als wenn ich mir jedes Jahr eine neue geholt hätte.

Da würde ich wiedersprechen, es ist eigentlich sinnvoller sich öfter Mittelklassekarten zu kaufen anstatt einmal HighEnd. Auf die gesamte Zeit gesehen, hat man mehr Leistung und immer die neuere Technologie. Wenn man sich jetzt eine Graka a la 5770 kauft und dann in 1,5 Jahren nochmal eine für 150€ fährt man ingesamt besser als wenn man sich in 3 Jahren einmal eine Karte für 300€ kauft ;)
Wenn man keine Lust hat sich immer wieder aktuell zu informieren bzw. immer wieder aufzurüsten, für den spricht natürlich nichts dagegen sich seltener HighEnd-Hardware zu kaufen.

Deswegen hat ATI es auch garnicht nötig was nachzusetzen, im umsatzstarken Mittelklasse- bzw. OEM-Segment gibts noch keine aktuelle Technologie von nVidia.
 
Zuletzt bearbeitet:
serge schrieb:
hoffentlich lassen sie sich nicht zuviel zeit.

mir wäre es lieber wenn sie weiterhin druck machen würden.

Warum? Die sollen lieber ordenliche Chips entwickeln und sich nicht künstlich Gegenseitig unter Druck setzen. Die leidtragenden wären dann die Consumer, die sich mit halbfertigen schlechten Produkten auseinander setzen müssen.
 
Haudrauff schrieb:
Warum? Die sollen lieber ordenliche Chips entwickeln und sich nicht künstlich Gegenseitig unter Druck setzen. Die leidtragenden wären dann die Consumer, die sich mit halbfertigen schlechten Produkten auseinander setzen müssen.

Nein nicht unbedingt, man kann auch unter Druck professionell arbeiten.
Noch dazu passiert so ein Reinfall eben, ohne Druck(Konkurrenz) wäre es viel mehr hingenommen worden
Was ohne Druck passiert hat man nach der 8800 Serie von Nvidia gesehen ;)
 
ich denke aber dass es bald eine HD5890 geben wird)
 
GuaRdiaN schrieb:
Das ist so nicht ganz zutreffend. Die aktuellen Grafikkarten sind konzeptionell eher CPUs als GPUs im klassischen Sinne. Es handelt sich dabei um eine RISC architektur, die mehr und mehr in der Lage ist x86 Code auszuführen. Man bewegt sich bei der Entwicklung stetig weiter Richtung paralleler Abarbeitung einzelner Threads. In der Prallelisierung liegt großes Potenzial, da - einmal umgestiegen - die Skalierbarkeit kein Problem mehr ist. Und genau so wie der µCode in einer CPU den Befehlssatz und dessen Funktion implementiert, wird auch in einer GPU der Befehlssatz und dessen Funktionalität (Steam Prozessoren, whatever) implementiert. Und dort lassen sich eben defekte Teile deaktivieren.

Stimmt, da soll es hingehen aber bislang waren ATI und NVIDIA noch nicht soweit.
Die müssen für jeden Marktsegment einen "extra" Grafikprozessor entwickeln.
NVIDIA wollte Fermi so konzipieren das einfach Teile deaktiviert werden können bzw. das der GPU so etwas wie einen modularen Aufbau hat - das es einfacher macht aus dem großem Chip einen Midrange- oder Low-End Prozessor zu machen.
Ob das so hinhaut - abwarten. Es machte aber in den letzten Wochen die Runde das NVIDIA den GF104 Prozessor bereits fertig gestellt hat - vielleicht ist da doch etwas am modularen Aufbau des Fermi dran.
 
Ich würde an ATIs stelle auch nichts machen. Das Interesse des Kunden an den vorliegenden Produkten ist da, die Konkurrenz ist "schwach". Ich würde mich weiter auf die nächste Gen konzentrieren. Ganz und langfristig den Vorsprung versuchen auszubauen. Vll wenn Nvidia zu sehr aufn Putz haut mal eine aufgebohrte Version rauslassen, aber nichts womit sich die Ingenieure und Enwickler wirklich befassen müssen.

Umso schlechter für uns. Wir wollen dass es schnell vorwärts geht. Da kann aber ATI gerade durchatmen.

Cu
Lasyx
 
Naja ... Fermi = Masse statt Klasse.
Da fragt man sich ob der G80 wohl einfach nur Glück war bzw. ein Zufall in seiner Herstellung.

Als ich gesehen habe was für einen Stromverbrauch inkl. Lautstärke und trotzdem noch ordentlicher Hitze für einen marginalen Leistungsschub erwartet ist mir echt der Mund runter geklappt.

Sehe mit meiner 8800GTS derzeit keinerlei Gründe aufzurüsten, die Leistung lohnt sich nicht (außer man liefert sich jetzt nen totalen Preiskrieg im High End Sektor :freak:).
 
Nuerne89 schrieb:
maaaan ich will ne HD5890 mit 1GHz Chiptakt und 2GB vram haben!! ^^

Und ich eine HD6870 mit 2Ghz Chiptakt und 4GB VRam. Also lass doch die Jungs ordenlich an der HD6xxx Serie schrauben und hämmern.
An billigere Karten kommen wir nur wenn es eine neue Generation gibt.
 
Schön wäre es trotzdem gewesen die Leistungskrone plus 10% mehr Performance gleich wieder zurück zu haben^^
 
Grafikkarten kaufen macht zz echt keinen Spass. Entweder nicht vorhanden oder eben teuer.
Das heißt abwarten. Der Sommer kommt, da kann man sich auch sehr gut ohne PC amüsieren :).

Cu
Lasyx
 
BrOokLyN R!ot ³ schrieb:
Naja recht haben Sie ja schon, nur sollten Sie dann umso mehr dran arbeiten das der kommende neue Chip der ja Native DX11 sein soll umso mehr der Kracher wird. Denn desto früher der Da ist und desto höher der Die Latte legt umso mehr kann man NV auf deren Schwächen noch deutlicher Ausspielen.

Nicht das man es bei ATi wieder verpennt und sich zu sehr ausruht.
Northen Island wird nicht mehr nativer DX11 sein, als es Evergreen ist.
Nur wird dieser mehr Tesselation & Co einheiten bekommen.

Und genau diese Taktik dürfte bei ATI viel besser sein.

Was nützt Fermi die ganze Tesselation-Power, wenn sie mit den ganz wenige Spielen jetzt kaum genutzt werden kann.

Ganz im Gegenteil. Nicht nur das es kaum genutzt werden kann, sondern aufgrund des beträchtlichen Stromverbrauch aufgrund dieser Einheiten die Architektur schlechter aussehen lässt.

Da dürfte die Strategie von AMD viel besser sein, alle 1,5 Jahre eine neue (halbe) Architektur rauszubringen und sich viel besser an den aktuellen Markt bzw. an die Spiele-Bedürfnisse anzupassen, als alle 3 Jahre eine ganze neue Architektur rauszubringen, deren Power erst viel später genutzt werden kann.

Auch die 1900XT war der 7000er-Konkurrenz nach der G80-Einführung viel viel besser als vor der G80-Ära
Vielleicht hat AMD einfach daraus gelernt, während Nvidia vielleicht da jetzt diesen Fehler macht.

Das Problem ist nur, Fehler in der Architektur können nicht so schnell korrigiert werden.

So wie die Gerüchte lauten, könnte AMDs Architektur noch viel besser sein, als jetzt viele Vermuten.

Denn wenn AMD bei der 32nm-Streichung wegen der einfachen & flexiblen Architektur noch rechtzeitig auf 40nm wechseln kann und Nvidia da wieder nichts tun/ändern kann, dann ist das ein nicht zu unterschätzender Vorteil einer Architektur.

Aber das muss man noch abwarten, auch wenn es jetzt viele Gerüchte über diese Southern Island gibt.
 
Zurück
Oben