Test ATi gegen Nvidia: 14 Grafikkarten verschiedener Baujahre im Vergleich

Ehm natürlich weiss niemand ob der GT300 ein Fortschritt wird davon war aber auch nicht die Rede. Die Rede war von ausruhen auf ihre Lorbeeren ( was soviel bedeutet wie nix tun ab in die Sonne und sonnen....).

Und nein ich arbeite nicht bei Nvidia/ Amd/Ati aber der gesunde Menschenverstand sagt einem schon das es (grade !) für solche Unternehmen tödlich ist nix zu tun. Nur weil sie nichts neues auf dem Markt geschmießen haben, heisst es nicht das nix getan wird. Es dauert Jahre bis so ein Chip fertig ist.

Nochwas: Bei Ati gabs auch nicht wirklich viel neues überragendes, was war denn die 4000er Reihe ? Genau eine aufgebohrte 3000 Reihe genau wie bei Nvidia.....
 
An den sogenannten "Stillstand"(der keiner ist) könnt ihr euch gleich mal gewöhnen. Das wird für alle Zeiten so bleiben und weitergehen. Das ist ein ganz normaler Rhythmus zwischen den Architekturen. Auch bei den CPUs ist das so.

Zwischen den Architekturen wird einfach geshrinkt, kosten optimiert, Effizienz gesteigert, und Features erweitert(man versucht es zumindest). Richtige Leistungsexplosionen kann es nur mit einer neuen Architektur geben. P4->Core2; GF7->GF8
Das hat nix mit geraden oder ungeraden Zahlen zu tun. GF3;GF5,GF8;GF11(GT300)---->GF14??

Wie man schon sagte als die 8800GTX raus gekommen ist hat man schon ein paar Jahre an dem GT300(ca. 5 Jahre Entwicklungsarbeit) gearbeitet, von daher -> ausruhen?? Und heute(also während man sich gemütlich ausruht ;)) arbeitet man an einer Architektur die erst in 5 Jahren aufschlägt.

Bei NV hat sich währen des "Stillstandes"in Sachen Features einiges getan:
Hybrid-SLI (zur Zeit nur Notebooks)
CUDA
Idle Stromsparmode
PhysX
Treiberprofile bzw. optimierte Treiber

MfG Kasmo
 
Zuletzt bearbeitet:
meine letzte karte die ich von ATI gekauft hab ist X800 XT von Powercoler AGP am 7.01.2005 für 539,95€, die läuft noch heute beim Bruder im PC, danach hab ich mir die NV 8800 Ultra von XFX gekauft. Bis heute hab ich immer von NV Karten gekauft, in meiner Sammlung sind 8800 Ultra, GTX 260, und die zwei schönen GTX 285.
Wenn es soweit ist werde ich mir wieder neue kaufen aber ob das eine ATI wird kann ich nicht sagen.
 
Dass meine X850XT-PE keinen mehr vom Hocker reißt war mir klar.
Dass die Unterscheide teilweise so drastisch ausfallen hätte ich damals beim Kauf jedoch nicht gedacht.
Naja... es war ja auch ein wahres "Schnäppchen"... nur 480€ für eine Platinum Edition... da musste man ja zuschlagen. :D

Heute sehe ich das ganze etwas anders...
Nicht nur dass sie mit bis zu 64db(A) Lärmbelästigung darstellt und die Heizleistung im Verhältnis zur Rechenleistung mittlerweile der Glühlampe gleich kommt, auch die fehlenden Features (PS3, etc.) sind Argumente lieber das Geld zu halbieren und alle 2 Jahre eine neue Ober/Midrange-Karte zu kaufen.

Trotzdem möchte ich sie damals nicht missen möchten... BF2 und Co in Vollauflösung mit allem Schnickschnack aktiviert war schon geil. :-)

Nächstes Jahr kommt wohl ein neuer Rechenknecht, dann liegen die Prioritäten sooderso etwas anders.

MfG TecTurtle
 
Hallo zusammen,

@ Kasmopaya

Also bei allem Respekt, Hybrid-SLI ist nun wirklich kein Feature in dem Sinn. Denn wieviele Leute kennst du denn die 2 oder gar mehr Grafikkarten im Rechner haben? Auch in Notebooks kannst du diese regelrecht an einer Hand abzählen, welche ein solches System im Sortiment führen. Für mich ist das nichts als Pseudo-Marketing.

Und was das "Stromspar-Feature" im IDLE angeht, das ist doch nun wirklich eine Selbstverständlichkeit, denn Nvidia hat doch hier eindeutig Nachholbedarf gehabt bzw. diese sind für die 8800 GTS 640/GTX immer noch nicht Realität! Bis Heute vermisse ich dies!

Optimierte Treiber hat es auch immer schon gegeben. Nvidia und auch Ati wurden ja durch den jeweils anderen Konkurrenten dazu selbst gezwungen. Und spezielle Treiberprofile gibt es auch nur für SLI-Karten, denn ansonsten liegt die 2.te GPU in praktisch nahezu jedem Spiel brach. Das ist also kein Feature zu Nennen meiner Meinung nach, sondern eine absolute Erfordernis zum Betrieb von Multi-GPU-GRafikkarten!

Ansonsten meine ich eben "Stillstand" im Verhältnis dessen, was eben seit dem G80 zu verzeichnen war. Und das ist sehr Mager, besonders im Verhältnis zu vorhergehenden Grafikkartengenerationen, wie schon angemerkt, zuvor war es jahrelang der Fall, daß eine Neue Grafikkartengeneration die doppelte Leistung gegenüber der vorhergehenden Generation brachte, jedenfalls annähernd.

Und genau das ist seit 3 Jahren nicht mehr zu verzeichnen. Deshalb bin ich der Meinung, daß Nvidia sich auf ihren mit der G80 GPU erworbenen Meriten - zu Recht erworbenen Meriten - ausruht. Jedenfalls im Verhältnis.

So long...........
 
Zuletzt bearbeitet:
@ Luxmanl525

Ja Stillstand vielleicht nicht grade. Man hat sich auf andere Bereiche konzentriert. Denn der G80/ G92 läuft ja und wird bis Heute verkauft. Sowas hat es noch nicht gegeben, das man einfach ne 8800GT zu einer 9800GT oder eine 9800GTX+ zur GTS250 macht^^.

Somit haben sie in der Software was gemacht: Pysix, CUDA und endlich Notebook-Treiber.
Weiterhin musste ein Chip zum Atom her... und auch im Handy- Smartphne Bereich wird gearbeitet.

Aber man kommt ja vom Kerntehma ab.
So gut die 8800ter waren, so schlecht fand ich bis jetzt auch die 8600. Durch die 8800ter hat man auch bei den Midrange-Karten viel erwartet. Zumindest ich wurde enttäuscht. Das wurde erst mit der 9600GT erledigt (dafür war die 9800GTX langweilig, genau wie die 7800ter...).
Eine Grafikkarte die ich bis heute noch mit Abstand am meisten verkaufe, wegen dem exelenten P/L-Verhältnis!! Eine super Karte!!

so far
p0is3n
 
Luxmanl525 schrieb:
Ansonsten meine ich eben "Stillstand" im Verhältnis dessen, was eben seit dem G80 zu verzeichnen war. Und das ist sehr Mager, besonders im Verhältnis zu vorhergehenden Grafikkartengenerationen, wie schon angemerkt, zuvor war es jahrelang der Fall, daß eine Neue Grafikkartengeneration die doppelte Leistung gegenüber der vorhergehenden Generation brachte, jedenfalls annähernd.

Und genau das ist seit 3 Jahren nicht mehr zu verzeichnen. Deshalb bin ich der Meinung, daß Nvidia sich auf ihren mit der G80 GPU erworbenen Meriten - zu Recht erworbenen Meriten - ausruht. Jedenfalls im Verhältnis.

Vergleiche mal das Performancerating Qualität im Grafikkarten 2008-Test. Es gibt durchaus Messkriterien, in denen ein doppelte Leistung beobachtet werden kann (9800GT > GTX 260/280).
 
Also bei allem Respekt, ;) Hybrid-SLI ist nun wirklich kein Feature in dem Sinn. Denn wieviele Leute kennst du denn die 2 oder gar mehr Grafikkarten im Rechner haben? Auch in Notebooks kannst du diese regelrecht an einer Hand abzählen, welche ein solches System im Sortiment führen. Für mich ist das nichts als Pseudo-Marketing.
Bei allem Respekt,;) im Notebook findet man Hybrid-SLI schon sehr oft, mir fallen grad die ganz großen ein: Dell, Alienware, Apple
Die haben alle eine onboard GPU und eine Dicke GPU die man deaktivieren kann. Andere Hersteller ziehen grad nach weil der Ion grad erst richtig verfügbar wird.
zuvor war es jahrelang der Fall, daß eine Neue Grafikkartengeneration die doppelte Leistung gegenüber der vorhergehenden Generation brachte, jedenfalls annähernd.
Früher gab es genauso Refresh Chips. Das bildest du dir nur ein.

Für mich Persönlich ist eine Grafikkarte vor allem dann Lohnend, wenn die Leistung in etwa Doppelt so hoch ist, wie die der vorhergehenden Karte. Früher war es durchaus auch Gesetz, daß eine Neue Kartengeneration ca. das doppelte an Leistung gegenüber der Vorgeneration bringt.
http://www.pcgameshardware.de/aid,6...U-Refresh-von-Nvidia/Grafikkarte/Test/?page=8

Wie doesntmatter schon geschrieben hat, du musst vorallem differenzieren unter welchen Settings eine verdoppelte Leistung da war. Schau dir mal einen Test zu den verdoppelten Vram Versionen an, da ist eine normale GTX 295 100% langsamer als eine Asus Mars und bei den min. FPS ist sie sogar 400% langsamer.

Die Leistung verdoppelt sich ständig, nur hald wahrscheinlich nicht in den Bereichen die du gerne hättest.

Außerdem ist das Meckern auf sehr hohen Niveau, wahrscheinlich erwartest du eine Leistungsexplosion wie bei GF7->GF8. Wie gesagt frühestens der GT300 schafft das. Schau dir mal die CPUs an wie lächerlich hier die Leistungszuwächse sind bzw. waren. Vorallem wenn man das ganze Mulit-Core Support mit einrechnet. Und sau teuer im Bezug auf die Rechenleistung sind die Dinger auch noch. Insofern sollte man erstmal die CPUs kritisieren...


Und was das "Stromspar-Feature" im IDLE angeht, das ist doch nun wirklich eine Selbstverständlichkeit, denn Nvidia hat doch hier eindeutig Nachholbedarf gehabt bzw. diese sind für die 8800 GTS 640/GTX immer noch nicht Realität! Bis Heute vermisse ich dies!
Wieso Nachholbedarf? 8800GTS braucht weniger im Idle und unter Last als die HD 2900XT. Sogar die 8800GTX braucht ein Ruckerl weniger im Idle als die HD 4870/4890. Nachholbedarf? :D
ATI Fans sagen immer, untertaktet doch selbst wenn ihr es haben wollt. Also GF8 untertakten und fertig...

Erst die GF9 hatte Nachholbedarf auf die HD 3000. Die GF 9 war aber im allgemeinen eine Zeit lang verhunzt weil sie auf 512MB Vram beschnitten war. Mittlerweile löblicherweise gefixed von NV GTS 250 1GB. Verdammt guter Idle Stromsparmode und 1GB Vram @G92 alias GF8/9.
Hat ATI irgendwas gefixed? Nö, gar nix. Bei der HD2000 nicht und bei der HD 4000 nicht. Nachholbedarf?;)

MfG Kasmo
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
Bei allem Respekt, im Notebook findet man Hybrid-SLI schon sehr oft,
Bei allem Respekt, dann scheinst du "sehr oft" auf eine sehr eigene Art zu interpretieren...
Schon einmal geschaut, in welchen Modellen diese Technik zu finden ist? So viel zum Thema sehr oft...

Und ja: Früher waren die Leistungssprünge (im Schnitt und nicht nur in einzelnen Anwendungen und speziellen Einstellungen) pro Zeit deutlich größer als in den letzten 3 Jahren.
Sonst hätte die Leistung einer X1900 XTX nur der einer x800pro entsprechen dürfen oder die Leistung einer 8800GTX nur der der 7900 GTX.
Wieso Nachholbedarf? 8800GTS braucht weniger im Idle und unter Last als die HD 2900XT.
Den Vergleich meinst du jetzt nicht ernst...
https://www.computerbase.de/artikel...li-test.628/seite-37#abschnitt_stromverbrauch
Aber nein, da bestand kein Nachholbedarf...
Der Verbrauch im idle ist ja "normal". Der Verbrauch ist einfach absolut inakzeptabel fürs nichts tun und wenn hier kein Nachholbedarf bestanden hat, wann dann...

Im CPU-Bereich herrscht auch Stillstand. Und weiter?
Und warum soll ich diesen Bereich kritisieren, wenn es hier um Grafikkarten geht? Außerdem bekommt man für 50€ eine CPU, die für so gut wie alles ausreicht. Da sind die Grafikkarten noch "etwas" entfernt.
 
Der Verbrauch im idle ist ja "normal". Der Verbrauch ist einfach absolut inakzeptabel fürs nichts tun und wenn hier kein Nachholbedarf bestanden hat, wann dann...
2006 in Kombination mit einer Leistungsexplosion war dieser Verbrauch für die Mehrheit zu der Zeit zu Recht akzeptabel. Für mich zb. und zb. auch für Volker, frag mal nach, er hat auch immer noch eine 8800GTX. Heute 2009/2010 ist sowas ein no go stimmt, vorallem bei einer neuen Grafikkarte. Aber keiner wird seine 8800GTX jetzt noch raushauen wo doch die GT300 so nah ist. :D


Außerdem bekommt man für 50€ eine CPU, die für so gut wie alles ausreicht. Da sind die Grafikkarten noch "etwas" entfernt.
Wie wärs mit deiner HD 4770? Verdammt günstig, schnell, sparsam(unter Last). Recht viel besser gehts nicht! Als ob eine gleich teure CPU jemals an die Leistung einer HD 4770 ran kommen würde, also bitte. :p
 
Hallo zusammen,

@ Kasmopaya

Nochmals bei allem Respekt. Bei wievielen dieser NB`s funktioniert denn Hybrid-SLI? Selbst der Nvidia Marketing-Chief hat sich da negativ darüber geäußert und dies bemängelt. Also ehrlich!

Natürlich gab es Refresh-Chips, das bestreite ich gar nicht. Aber die kamen nach ca. einem halben Jahr heraus und waren allesamt GPU`s, welche teils Fehlerbereinigt und vor allem mitteils eines kleineren Herstellungsprozeßes hergestellt wurden, auch mit noch einem erhöhten Takt von ca. 10 - 15 %. Und nach ca. einem Jahr kam dann eine komplett Neue Generation heraus, welche eben in etwa die Doppelte Leistungsfähigkeit hatte.

Das ist aber seit ca. 3 Jahren nicht mehr der Fall. Stattdessen kommen mehr oder minder nur noch Die-Shrinks heraus, bei welchen der Takt etwas erhöht wurde respektive zum kleineren Herstellungsprozeß. Dafür laufen die Dinger aber nahezu sämtlich ziemlich am Anschlag.

Dabei beziehe ich mich auf Normal Übliche Auflösungen und keine Phantasiezahlen. Oder gar Vergleiche mit einer Asus Mars, welche ich gänzlich anderen Hemisphären spielt. Und schon gar keine Normale Grafikkarte ist. Diese Vergleiche die du hier aufzählst hinken aber jetzt wirklich extrem. Genauso die Tests. Für mich ist das Pseudo-Marketing und hat mit der Realität eines normal Üblichen PC`s nichts zu tun.

ERGÄNZUNG: Also ich kann mich noch ziemlich Gut erinnern, daß der Verbrauch der 8800 GTS 640/GTX im IDLE, ein ganz gewaltiger Kritikpunkt war querbeet bei praktisch allen Tests. Und üblich war dieser IDLE-Verbrauch eher nicht meines Wissens nach. Aber man muß auch einräumen, daß ATI zu der Zeit des Erscheinens der G80 Chips auch eine Generation hinterher rannte. Insofern sind die damaligen X1800 / X1900XT Karten nicht unbedingt als Vergleichsmaßstab zu nehmen wie ich denke, aber andere Konkurrenzprodukte gab es nunmal dazumal nicht auf dem Level.

@ Seppuku

Also ich kann definitiv bestätigen, daß die 8800 GTS 640 respektive ebenso die 8800 GTX im IDLE relativ viel Strom zieht. Nämlich ca. 60 Watt, die GTX nochmal etwas mehr. Das war auch einer der Hauptkritikpunkte, welche auch bis Heute nicht gelöst wurden. Ein gewisser Nvidia-Marketing Manager kündigte sogar eine Besserung diesbetreffend per Treiberupdate an, doch warten G80 Nutzer noch Heute hierauf. Aber na ja, man kann nicht alles haben.

@ .p0!$3n.

Ich muß dir einmal mehr beipflichten dahingehend, daß Nvidia viel Treiberpflege offenbar betrieben haben muß. Denn auch ich stellte einen schönen Leistungssprung fest, als ich den Treiber der 167er Generation gegen den Aktuellen austauschte. Normalerweise wechsele ich einen Treiber nur, wenn ich Probleme habe, aber da der Treiber seit ca. 1 1/2 Jahren drauf war, dachte ich "Probiere es mal", vor allem weil soviele von einem spürbaren Plus an Performance berichteten.

Das muß ich Nvidia also wirklich sehr Positiv zugute halten.

@ doesntmatter

Das mag sein und das Streite ich nicht ab. Aber ich beziehe mich auf "Normalübliche" Auflösungen und Qualitätseinstellungen. Und da ist ein solcher Performancesprung wie früher, von Generation zu Generation, nicht mehr vorhanden.

So long.....
 
Zuletzt bearbeitet:
@ Kasmopaya

Weil man auf dem Desktop ja auch so viel rechnen muss mit der ganzen Leistung einer 8800gtx...
Es gibt auch Leute, die eine Leistungsaufnahme einer Grafikkarte (egal ob Nvidia oder ATI), die im idle mehr verbraucht als ein kompletter Office-Rechner mit Bildschirm bei der Arbeit, für inakzeptabel gehalten haben (und jeder der auch nur ansatzweise rational denkt, müsste dies auch tun). Ob man das im Anbetracht des Leistungsgewinn (wenn sie denn mal rechnet) in Kauf nimmt, ist eine andere Frage (akzeptabel war und ist es trotzdem nicht).
Und auch vor 2006 gab es Notebookgrafikchips, die Stromsparmodi besessen haben. Einigen scheint diese Technik aber bis vor ein paar Jahren fremd gewesen zu sein...
Wie gesagt: Wurde verbessert und es war auch dringend nötig. Ein nachträgliches schönreden ist aber ein bisschen absurd...
Als ob eine gleich teure CPU jemals an die Leistung einer HD 4770 ran kommen würde, also bitte.
Wie willst du die Leistung zweier total unterschiedlicher Komponenten 1:1 vergleichen? Da ich genau diese Kombination habe (Dualcore und HD4770, weiß ich, dass öfters die Grafikkarte an die Grenzen stößt als die CPU und die Grafikkarte hat 80€ gekostet (also 60% mehr als die CPU)). Aber das ist jetzt auch nicht das Thema.
Und warum du diese Leistungsexplosion so hervorhebst und dann den Verbrauch damit rechtfertigst ist mit auch schleierhaft. Dann scheinst du die letzten Jahre davor verschlafen zu haben.
 
Zuletzt bearbeitet:
Hallo zusammen,

@ Seppuku

"Wie willst du die Leistung zweier total unterschiedlicher Komponenten 1:1 vergleichen? Da ich genau diese Kombination habe (Dualcore und HD4770, weiß ich, dass öfters die Grafikkarte an die Grenzen stößt als die CPU und diese hat 80€ gekostet (also 60% mehr als die CPU))"

Also ich bin der Ansicht, daß ein solcher Vergleich vollständig daneben geht. Denn nahezu sämtliche Spiele - bis auf maximal eine Handvoll Ausnahmen wie GTA IV - sind komplett GPU-limitiert mittlerweile. Selbst bei Crysis war meine im Profil aufgeführte CPU nie mehr als 65 - 70 % ausgelastet, meine GPU aber schon.

Ich weiß auch nicht, wie hier auf einmal ein Vergleich zu einer CPU herkommt. Denn das Threadthema bezieht sich ja auf GPU`s. Egal. Jedenfalls ist es Fakt, daß dieser Vergleich hinkt.

Ansonsten muß man Sagen, daß immer mehr Software für GPU`s optimiert wird, jede solch Optimierte Software läßt jede CPU meilenweit Stehen.

So long....
 
Zuletzt bearbeitet:
Nochmals bei allem Respekt. Bei wievielen dieser NB`s funktioniert denn Hybrid-SLI? Selbst der Nvidia Marketing-Chief hat sich da negativ darüber geäußert und dies bemängelt.
Ich glaub du verwechselst da was mit dem Desktop Hybrid-SLI. Das war mehr oder minder ein Flop. Aber im Notebook Bereich zählt jedes eingesparte Watt. Und ja teilweise muss man rebooten um die dicke GPU abzuschalten, aber was tut man nicht alles um die Akkulaufzeit zu erhöhen;). Von daher bleibe ich dabei, Hybrid-SLI wird in massen verkauft, nicht bei allen ist klar, da spielt der Kaufpreis eine Rolle. Und es funktioniert...
Diese Vergleiche die du hier aufzählst hinken aber jetzt wirklich extrem.
Ich bleib dabei, im Enthusiastenbereich zb. SLI, sind die FPS teilweise ums 2-3 fache gestiegen, nur wegen den doppelten Vram Versionen. Bei 1024 x 768 gings weniger gut voran stimmt.



Weil man auf dem Desktop ja auch so viel rechnen muss mit der ganzen Leistung einer 8800gtx...
Schon mal die Treiber deiner Grafikkarte deinstalliert und dann Fenster verschoben aufm Desktop? Der dickste Nehalem schafft das nicht flüssig. Jede GPU macht das quasi im Schlaf, während deine dualcore CPU mit Softwareemulation auf 100% schießt...

dass öfters die Grafikkarte an die Grenzen stößt als die CPU
Ist ja auch logisch, die GPU muss die ganze Drecksarbeit machen. Mal schaun wie sich eine CPU@GPU Konstruktion ala Larrabee so gegen richtige GPUs schlägt. ;)

MfG Kasmo
 
Zuletzt bearbeitet:
Hallo zusamen,

@ Kasmopaya

Jetzt muß ich nochmal auf dein letztes Statement zurück kommen, denn ich habe das was Überlesen. Also die 8800 GTX braucht auf keinen Fall weniger Stom im IDLE als die Radeon 4870/4890! Wo hast du denn diese Daten her? Schon die 8800 GTS 640 zieht 60 Watt im IDLE! Die 8800 GTX zieht nochmal etwas mehr im IDLE aus der Dose.

Im Übrigens weiß ich nicht, was du jetzt mit einem Vergleich bei mit ATI im IDLE-Stromverbrauch willst. Denn meine diesbetreffende Kritik richtete sich nur und ausschließlich an Nvidia mit der G80 GPU respektive 8800 GTS 640 bzw. GTX.

Übrigens, ich habe seit 2005 ein Notebook mit Nvidia Go 6600, solcherartige Stromsparmechanismen waren auch damals schon zumindest in Notebooks normal und Standard. Man kann die Leistung sogar extrem Gut einstellen auf verschiedenste Bedürfnisse, damals schon.

Abschließend nochmals etwas zur Leistungssteigerung von Generation zu Generation. Ich rede ja explizit nicht von solchen Sachen wie SLI oder gar dem Enthusiasten-Bereich. Das ist für mich bar jeder Realität. Und egal ob ATI oder Nvidia, für die hat dieses Segment schlicht Marketingtechnische Bedeutung.

So long....
 
Zuletzt bearbeitet:
Also die 8800 GTX braucht auf keinen Fall weniger Stom im IDLE als die Radeon 4870/4890! Wo hast du denn diese Daten her?
https://www.computerbase.de/artikel...test.834/seite-26#abschnitt_leistungsaufnahme
Es ist nicht viel Unterschied und die Ultra toppt das ganze, aber GF8 ist immerhin uralt und HD 4890 brand neu.


Und ich hab zb. auch nach Stromverbrauch ausgesucht. 8800GTX hat die HD 2900XT in Sachen Stromverbrauch zersägt.(hab extra die HD 2900XT Tests abgewartet) Im Idle und unter Last. Es gab nichts besseres in Sachen Watt/Performance im high End.

Übrigens, ich habe seit 2005 ein Notebook mit Nvidia Go 6600, solcherartige Stromsparmechanismen waren auch damals schon zumindest in Notebooks normal und Standard.
Hybrid Power(Hybrid-SLI) gibts noch nicht so lange du verwechselst was.
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
Schon mal die Treiber deiner Grafikkarte deinstalliert und dann Fenster verschoben aufm Desktop?
Interessant, dass dies ein "uralter"-Onboard-Chip kann, der definitiv weniger Rechenleistung hat, als jede aktuelle CPU.
Wie du damit 60 Watt rechtfertigen willst ist mir auch schleierhaft. Fakt ist, dass dies total unnötig ist und jede Rechtfertigung ist eigentlich absurd...


Edit:
Hybrid Power(Hybrid-SLI) gibts noch nicht so lange du verwechselst was.
Es geht nicht um Hybrid... sondern um Stromsparmechanismen...
Und ja, die gibts schon länger.
 
Zuletzt bearbeitet:
Wäre meine 8800 GTS 640MB nicht kaputt gegangen, hätte ich die noch im Einsatz. So schlecht ist sie ja nicht. Aber mit meiner GTX 260 bin ich jetzt auch zufrieden. Die Zeiten, in denen man >300€ für eine gute Grafikkarte ausgeben musste, sind auf jeden Fall vorbei. Gerade ATi drückt die Preise ordentlich.

Aber mal abwarten was die nächste Generation so bringen wird.
 
Marc Flemming schrieb:
Hallo Computerbase!

...

Mehr als Kurios ist der Vergleich der beiden Oblivion Benchmarks:

Eine 8800Ultra schaffte damals 34,5 Fps in 1600x1200 4AA,16Af. GTX285 35,2Fps bei 1680x1050!??
Die X2900XT hingegen hat sich von 10,8 auf 22,5 gesteigert. Textur Mod??


Mfg


Wunder mich auch gerade wieso die damaligen Karten (X800/6800) so schlecht abschneiden. Ich hatte damals eine X800XT PE und konnte Oblivion vollkommen flüssig spielen, auch teilweise mit Mods.
Und noch mehr wundert es mich warum heutige Grafikkarten nicht mehr als ~60fps schaffen bei Oblivion, welches 2006 raus kam.
 
Hallo zusammen,

@ Kasmopaya

Ich verwechsele definitiv nichts in dem Falle. Du hast den "IDLE-Stromsparmode" klar und deutlich als Feature in deinem Beitrag Nr. 162 aufgeführt. Tatsächlich gab es schon um einiges Früher in Notebooks solche Sparmodis. Wie gesagt, ich habe ein Notebook von 2005, März um genau zu sein, mit Nvidia Go 6600, welches genau dieses "Feature" - welches keines ist meiner Meinung nach - hatte.

Du mußt aber auch bedenken, daß die Radeon 4870 einen Bug hatte und von daher nicht mit der Radeon 4890 zu vergleichen ist, dieser IDLE-Stromverbrauchsbug ist übrigens bei der 4890 behoben.

Ich bin jetzt nicht so ganz auf dem Laufenden was die Radeon 4870 betrifft, deshalb wende ich mich an Radeon 4870 Nutzer auch, denn wenn ich das nicht Falsch im Gedächtnis habe, wurde dieser Bug im IDLE doch per Treiberupdate behoben, liege ich da Falsch?

In jedem Fall aber wurde der Fehler bei der Radeon 4890 für den IDLE-Bereich behoben so daß ATI hier gegenüber Nvidia in Etwa gleichauf liegt. Jedenfalls war der IDLE-Stromverbrauch der 8800 GTS 640 u. GTX 2006 schon ganz schön außer der Reihe.

So long.....
 
Zuletzt bearbeitet:
Zurück
Oben