News ATi reduziert Support für ältere Grafikkarten

Ich sehe die Sache etwas zweigeteilt. Auf der einen Seite ist es schade das Leute die mit ihren älteren Karten noch gut fahren einen häufigen Support zu verlieren obwohl ich denke das die Karten heutzutage nicht mehr allzuviel reißen würden trotz aktuellem Treiber.

Auf der anderen Seite finde ich es gut das man über so einen kulanten Weg versucht kosten einzusparen anstatt gleich wieder Leute zu entlassen.


Gruß
 
bensen schrieb:
Deswegen brechen Georce 6 und 7 so derbe ein sobald etwas mehr Shader vorkommen (was mittlererweile bei jedem Titel so ist).
Aber das betrifft auch nur diese Karten und hat mit den aktuellen Serien ab der Geforce 8 gar nichts zu tun.

hat es nicht ?

Warum sollte es nicht ?


die 4870 hat doch auch mehr shaderleistung als die gtx 285 wenn sie vollständig genutzt wird. Warum sollte der Karte das in Zukunft nicht zum Vorteil gereichen ?

Bei stark shaderlastigen Spielen liegt sie ja heute schon davor, das wird sich in Zukunft wohl eher verstärken.


Sicherlich ist der Unterschied nicht mehr so groß wie zur Zeit der gf7 shaderkrüppel, aber er ist immer noch gegeben.
 
Realsmasher schrieb:
die 4870 hat doch auch mehr shaderleistung als die gtx 285 wenn sie vollständig genutzt wird.
Ja genau, wenn sie vollständig genutzt wird. In der Theorie ist die Shaderleistung sehr viel höher, in der Praxis bleibt nicht mehr all zu viel von dem Vorsprung übrig.
Die 8800GTX hat in den letzten 2,5Jahren kein bisschen an Boden gegenüber der Konkurrenz verloren und wird sie wohl auch in kommenden Spielen nicht.

Mal davon ab, welches Spiel ist denn heute nicht Shaderlastig?

Und das ist auf keinen Fall vergleichbar mit den Problemen beim G70. Da wurde bei Texturoperationen ne ALU gestallt, so dass kaum noch Rechenleistung vorhanden war.
Diese Verallgemeinerung das ATI Karten generell in der Zukunft besser da stehen, habe ich als Quatsch hingestellt, denn das ist sie. Ne 2900XT wird auch in 5 Jahren nicht an eine 8800GTX ranrücken.
 
Zuletzt bearbeitet:
Voll verständlich, besonders da alte ATI-Grafikkarten eh meist noch gut laufen (auch ohne ständig upzudaten)

die Nvidia grakas vor 8xxx kann man dagegen wegschmeißen, obwohl regelmäßig neue treiber kommen sind sie nicht mehr zu gebrauchen obwohl sie als sie aktuell waren den ATI ebenwürdig waren.

Schaut einfach mal wie viele noch ne X8 oder ne X18/9 haben und damit zufrieden sind, das sind einige, dagegen ne 6800 wird wohl garniemand mehr haben der spielt und ne 78/9 werden nur noch sehr wenige haben und wohl meistens auch nimmer ganz zu frieden, ganz zu schweigen von der 7950 GX2 die nach heutiger Sicht der Größte reinfall ist.
 
bensen schrieb:
Diese Verallgemeinerung das ATI Karten generell in der Zukunft besser da stehen, habe ich als Quatsch hingestellt, denn das ist sie. Ne 2900XT wird auch in 5 Jahren nicht an eine 8800GTX ranrücken.

Die HD2900XT konnte sich nach dem Release knapp vor die 8800 GTS 640 stellen. Bei manchen Spielen war sie ja langsamer als die 8800 GTS 320... Mitlerweile ist sie immer schneller als die 8800 GTS 640. Die Karte ist nie an ne 8800 GTX herangekommen, das wird sie ja auch nicht. Aber sie hat aufgeschlossen.

Es gibt ja Leutz die in Foren schreiben ihre "älteren" Grakas würden mit jedem NV Treiber längsämer werden...

@general-of-omega

Stimme dir vollkommen zu! Die Grakas vor der 8-Serie von Nvidia sind aus heutiger Sicht nicht mehr zu gebrauchen.
 
Zuletzt bearbeitet:
wir können ja bensens aussage mal festhalten und schauen wie es in 2-3 jahren aussieht.

Bin wirklich gespannt was mit den ganzen G80/g92/g200 passiert wenn die neue architektur mal 2 jährchen draußen ist.


Wobei...die Anforderungen der Spiele sind (mit Ausnahme von crysis vielleicht) seit 2-3 Jahren schon nicht mehr wirklich gestiegen. Kann auch ein Grund sein.
 
Auch wenn ich da eher mit bensen übereinstimme, dass die 2900XT niemals die Leistung 8800GTX übertreffen wird. Sag ich schon seit Jahren, ATi baut super schöne und geniale Hardware. Lediglich ihre Treiber sind grottig. Na ja, einerseits hat ATi die Chance, durch bessere Treiber nachzuholen was sie in der Vergangenheit versäumt haben. Und sie haben respektable Fortschritte gemacht.

Hingegen finde ich die Aussage, dass man die 8er Geforces "wegschmeißen" könne, nur noch dämlich und an den Haaren herbeigezogen. Ich mein, schaut euch die Radeons aus der Zeit an. Die standen schon damals noch schlechter da, und das tun sie auch heute noch.
 
Mitlerweile ist sie immer schneller als die 8800 GTS 640.
Das ist de facto falsch. Eine HD2900XT ist nicht schneller als eine HD3870 und diese ist nicht schneller als eine GTX/640. Mit aktuellen Treiber schon mal gar nicht. Ausnahmen wie Crysis DX10 oder Stalker bestätigten als Ausnahmen die Regel.
Es gibt ja Leutz die in Foren schreiben ihre "älteren" Grakas würden mit jedem NV Treiber längsämer werden...
Was auch falsch ist. Alles was einen G8x, G9x oder GT200(b) trägt, profitiert Architektur-bedingt zB vom 182.06.

@ |nsb|urmel
Die Grakas vor der 8-Serie von Nvidia sind aus heutiger Sicht nicht mehr zu gebrauchen.
;)

cYa
 
Zuletzt bearbeitet:
Oops, ein Verleserle ^^

Na gut, die Ati-Pendants der 7er Geforces sind aber nicht weniger unbrauchbar, wenn man es so will. Da beisst die Maus kein Faden ab. Wobei ich persönlich die 7600GT im Rechner in der Arbeit nach wie vor total in Ordnung finde. Und da spiel ich fast täglich in der Mittagspause.
 
@die zwei über mir

wer sagt dass die 8000er Geforce schrott sind? die davor sind schrott.

ja es stimmt dass eine HD2900 fast gleich ist wie eine 3870, aber es gibt keine 8800 GTX 640 nur eine GTS 640 und die ist mitlerweile langsamer als eine 3870 (liegt ungefähr auf niveu von 3850).

und mit älteren Grakas meint man normal grakas vor 8er Serie und da ist es teilweise einfach so dass neue Treiber teilweise langsamer sind, das hat auch einen Ganz einfachen Grund:

zu Beginn einer Graka soll sie Möglichst schnell sein, also beut man Tricks ein damit sie schneller ist, z.B. kein perfektes AF oder ähnliches.

Wenn jetzt die nächste Generation drausen ist kann die meist diese Optimierungen auch weglassen und ist genauso schnell wie mit, deshalb sagt jetzt NV mit noch besserer AF und deaktiviert diese optimierungen (aber eben auch für ältere) und dadurch wird dann plötzlich die alte Generation (die man eh jetzt schlecht machen will im vergleich zur neuen plötzlich noch langsamer.
 
Na gut, die Ati-Pendants der 7er Geforces sind aber nicht weniger unbrauchbar, wenn man es so will.
Eine X1950XTX ist gar nicht mal so übel, die hält mit einer HD4670 gut mit.

cYa
 
auch die schwächeren modelle der 1900er serie sind bei aktuellen Spielen noch gut brauchbar, da muss es nicht das spitzenmodell sein was seinerzeit ohnehin p/l mäßig totaler Unsinn war und kaum vor den anderen lag.

lediglich die abgespeckten gt/pro/1800 varianten mögen teilweise etwas hinterherhinken.

Ansonsten stehe ich jederzeit bereit : nennt mir ein Spiel das auf der x1900xt in wsxga und mittleren details nicht flüssig(>30fps avg) läuft. Ihr werdet keins finden.

Das einzige was die Karte derzeit zum Einbruch bringt sind extreme shadersituationen die sich praktisch immer abschalten lassen und selbstinduzierte Texturhorrorszenarios (oblivion und co)

achja : und SSAA natürlich :)
 
Realsmasher schrieb:
~70€ (ddr3 version) für fast nix ? [EDIT von Kaoznake: gemeint ist die 4670]
Warum sollte man das machen ?

mit einer 4850 würde man sich wenigstens noch deutlich verbessern.

Das bezog sich auf die Aussage-->

nischtak schrieb:
mist ich hab ne x1950pro mit 512mb verdammt!

Ich spiele GRID mit meinem 19er Zöller alle Einstellungen auf High, ruckelfrei. Daher will ich mir keine neue holen und für was? Um den Stromverbrauch in die höhe zu treiben?

Wenn er statt alle 3 Monate eben einmal im Monat den Treiber erneuern will und nicht so viel Geld ausgeben für ne neue Graka und noch Strom sparen, wärs eben ne Alternative. Whatever.

|nsb|urmel schrieb:
Na gut, die Ati-Pendants der 7er Geforces sind aber nicht weniger unbrauchbar, wenn man es so will.

Die Beweisführung ist doch ganz einfach.

Review X1950XTX im Vergleich 7900GTX

Die X1950XTX knapp vorne (5%)

"aktueller" Vergleich X1950XTX im Vergleich 7900GTX

Etwas später sinds dann lockere 37%. Mit Kantenglättung wird der Abstand noch größer.

Hier nochmal das ursprüngliche Review der X1950 Pro, die zu diesem Zeitpunkt unter 1600x1200 und 4xAA/16AF einen Rückstand von 35% zur 7900GTX hatte.

Ein Link drüber hat die 7900GTX dann den Rückstand. Und zwar 5%, womit sie insgesamt 40% eingebüßt hat. Ich weiß jetzt nicht obs eher daran liegt, das die NVIDIA abgebaut hat, oder die ATI so enorm dazugewonnen, aber es wird wohl eine Kombination aus beidem sein.

Ich kann mich noch dran erinnern, das NVIDIA mit Filtertricks (ohne Wertung, gabs bei ATI auch) die ganzen ersten Benchmarks gewonnen hat. Dies ging aber so sehr auf Kosten der Bildquali, das man da wieder zurückrudern musste. Die Treiberupdates von ATI und die bessere Architektur der X1950 im Vergleich zur 7900 (es wurden ja in den oben genannten Reviews unterschiedliche Spiele getestet) taten dann wohl das übrige.

Die 7900 GTX zum Beispiel ist dann nicht total unbrauchbar, aber die X1950 Pro stellt die halt locker in den Schatten, vom Rest ala 7800GT (meine alte Graka :freak:, irgendwo zwischen 7600GT und 7900GS) ganz zu schweigen...
 
Es liegt einfach daran, dass im Testparcour andere Spiele vorkommen. Schau dir zum Beispiel Fear an, ist in beiden Artikeln drin. Da hat sich fast nichts getan.
Mit "Optimierungen" hat das nichts zu tun, das war ne Ära davor wo sich die beiden mit ihren Tricks bei der 6800 und X800 gegenseitig überboten haben.

CineFX, und somit alle Geforce 5-7, hat ein Problem mit Shader ab dem SM2. Wenn viele Pixelshader anstehen bricht die Leistung ins Bodenlose weg. Als der G70 aktuell war, war das egal. Spiele wie Doom3 oder Half-Life2 sind noch recht sparsam mit den Shadern umgegangen. Da kam es auf ne hohe Texturleistung an, die diese Karten zweifelsohne hatten. Dort lag eher die Schwachstelle der X1900.

Alle neueren Titel verwenden so exzessiv viele Shader das man mit nem G70 keinen Blumentopf mehr gewinnt.
 
DigDug schrieb:
Es soll aber auch Leute geben, die ihren PC für Officezwecke benutzen und nicht das Geld haben, sich alle 2 Jahre ein neues Notebook für 1500€ zu kaufen (IBM/Lenovo T-Serie).

Achso weil man "nur" alle 3 Monate nen Treiber bekommt muss man sich n neues Notebook kaufen oder was ?
Komische Welt in der du da lebst.
Muss ich mir jetzt ein neues Auto kaufen weil VW für n 3er Golf keine abhilfen mehr auf den Markt bringt da das Auto nun ausgereift ist?

:D

Ich finde das von der sache her gut denn nun sind die Treiber vill. mal ein bisschen kleiner.
Und da man nun nur auf relativ wenige Grakas programmieren muss steigt ja vill. dir Performence nochmals.
 
KAOZNAKE schrieb:
Die Beweisführung ist doch ganz einfach.

Review X1950XTX im Vergleich 7900GTX

Die X1950XTX knapp vorne (5%)

"aktueller" Vergleich X1950XTX im Vergleich 7900GTX

Hier nochmal das ursprüngliche Review der X1950 Pro, die zu diesem Zeitpunkt unter 1600x1200 und 4xAA/16AF einen Rückstand von 35% zur 7900GTX hatte.

Ganz Krass!
Ist schon eindrücklich wenn man das einige Jahre im Nachhinein so betrachtet. Die 1950XTX spielt sogar fast in einer Liga mit der GTS8800 320MB, vermutlich geht der der Speicher aus, aber das tut ja eigentlich nichts zur Sache.

@DigDug
Eigentlich ist's eh egal, da fast alle Notebookhersteller im besten Fall alle 6 Monate neue Treiber für ihre Notebookmodelle bereitstellen. Und wenn man dann von so alten Karten spricht, kommen meistens gar keine neuen raus.
Für mein ASUS G1 zB. gabs nur ein Windows XP-Graka-Treiberrelease (2006/11/09) und für Vista x86 ein Update am (2007/07/11).
Beim älteren Notebook mit Radeon 9700 war's dasselbe (Initial Release)..
Glücklicherweise unterstützt mein G1 jetzt Treiberupdates direkt von NVIDIA (NB-Treiber), ansonsten kommst du um's Treiber Modding nicht rum und da hast du keine Garantie, dass es klappt..
Wenn dadurch die Treiber für aktuelle Karten besser werden, da nicht mehr auf ältere Architektur Rücksicht genommen werden muss und umgekehrt ältere HW optimal angesprochen werden kann profitieren eigentlich alle.
 
KAOZNAKE schrieb:
Ich weiß jetzt nicht obs eher daran liegt, das die NVIDIA abgebaut hat, oder die ATI so enorm dazugewonnen, aber es wird wohl eine Kombination aus beidem sein.

Es liegt zum einen an den voneinander abweichenden Architekturen (in Kombi damit, dass für die Leistungsmessung andere Games verwendet wurden, wie bensen schon gesagt hat) und natürlich auch daran, dass die Catalyst-Treiber wirklich stark zur besseren Performance beigetragen haben. Genau das meinte ich ja auch mit

Sag ich schon seit Jahren, ATi baut super schöne und geniale Hardware. Lediglich ihre Treiber sind grottig. Na ja, einerseits hat ATi die Chance, durch bessere Treiber nachzuholen was sie in der Vergangenheit versäumt haben. Und sie haben respektable Fortschritte gemacht.

Ob ein Spiel jetzt mit unspielbaren 12 oder mit (jetzt mal gutgemeinten) 40% schnelleren, immer noch unspielbaren 17fps läuft, ist letztlich wurscht. Ob die alten Karten brauchbar sind oder nicht, wird nicht entscheidend dadurch beeinflusst ob Radeon oder Geforce, sondern hängt letztendlich vom Einsatzgebiet ab und davon, ob man sie mit einem Treiber betreiben kann, der keine Probleme im jeweiligen Einsatz verursacht.
 
|nsb|urmel schrieb:
Ob ein Spiel jetzt mit unspielbaren 12 oder mit (jetzt mal gutgemeinten) 40% schnelleren, immer noch unspielbaren 17fps läuft, ist letztlich wurscht. Ob die alten Karten brauchbar sind oder nicht, wird nicht entscheidend dadurch beeinflusst ob Radeon oder Geforce


prinzipiell gebe ich dir dabei recht.

Im auge behalten sollte man allerdings das derzeit enorm viele Konsolenkonvertierungen im Umlauf sind, die generell mit der gf7 Reihe mies laufen.

Ob das nun am ati chip in der box liegt, für die wohl lieber programmiert wird als für die ps3 oder was auch immer, man merkt es immer wieder.

Das begann schon 2006 mit oblivion, was auf keiner gf7 (ausgenommen der gx2 vielleicht) jemals wirklich überzeugend lief und hat sich bis heute nicht groß geändert.

Das die Treiber nie mehr darauf angepasst wurden, da ende 2006 dort praktisch schon Endstation war ist mit Sicherheit ein weiterer Grund.
 
@bensen: Ist ja auch egal wie, was, wos dran liegt; mir gings nur darum zu zeigen, das |nsb|urmel mit seiner Aussage einfach falsch lag. Denn obwohl NVIDIA mit der G8 deutlich abgezogen ist, waren die X1900 User auf jeden Fall besser dran als alle G7 User. :)

@tolki85: is jetzt nicht dein Ernst oder? Aber danke, hab mich köstlich amüsiert. :lol::lol::lol:
 
Zurück
Oben