Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.306
@all
wie manch einer hier schon erwähnt hat darf man hier keinesfalls ATI/AMD nun in den Himmel loben und Nvidia bashen. Jede Karte hat Vor- und Nachteile.
Kaum Jemand spielt mit 2560er Auflösung, aber zukünftige Spiele werden die Leitsungin 1600 brauchen die ein heutiges in der 2560er Auflösung braucht. Genauso mit AA, kaum jemand nimmt 8x AA, 4x reichen dicke und oft siehts bei nem geeigneten TFT mit höchter Auflösung besser aus als in niedriger mit AA. Sprich lieber ohne AA zocken wenn man in einem framekritischen Bereich ist.
Es steht außer Frage dass AMD mit der 4XXX Leistungstechnisch sehr gut aufgeholt hat. Kann man aber auch bei Faktor 2,5 bei Shaderleistung und Texturleistung erwarten!
Und zu welchem Preis? Der Stromverbrauch ist exorbitant hoch. Man muss das ganze in Relation zu den 55nm und der geringen Chipgröße sehen. Hier steht Nvidia eindeutig effektiver da!
Und dann noch so unsinnige Vergleiche zwischen einer 280GTX und einer 4870... Spart euch die Vergleiche oder vergleicht ihr auch einen Q9450 mit einem QX9770?? Selbst wenn die 280 GTX nur 10 % mehr Leistung bieten würde, würde Nvidia 400-500 Euro verlangen. Außerdem ist der Preis der 280 GTX auf unter 400 € gefallen... Eure Weltanschaunung kann doch nicht so durcheinander sein dass ihr erwartet dass die leistungsstärkste Singelkarte, das Topmodell, eine bessere Preis Leistung bietet als eine High Midrange Karte... War das jemals so? o.O
Soll ich jetzt damit anfangen dass eine GTX 260 die HD 4870 deklassiert da sie bei weit weniger Stromverbrauch in alter 65nm Technik mehr Leistung bietet als eine HD 4870? Vom Preis mal abgesehen. Der wird aber auch nach unten gehen. Vermutlich ist der G200 der 260 GTX teurer, aber die Karten insgesammt werden sich nicht viel schenken in der Produktion. GDDR5 ist auch bein billiger Spaß. Und Unyu hat in sofern recht das wohl wirklich viele Transistoren auf dem G200 für GPGPU verwendet wurden.
Ganz einfacher Vergleich: Schaut euch die Größe des G92 und des R770 an. Schaut euch die GPGPU Leistung der HD 4870 der GTx 280 und der 9800+ an. Nvidia kann nicht solch ein Plus herausholen durch einfache Erhöhung der Shaderzahl. Steht auch im zugehörigen CB Test.
Rein Chiptechnisch ist der G92b schneller als ein R770, zumindest effizienter. Er besitzt nicht die Wunder Stromsparmechanismen. Aber er ist obwohl er sogar etwas kleiner als ein R770 ist schneller bei weniger Verbrauch. Soviel zur Effizienz. Die hat nämlich nichts mit Herrstellungskosten, die beim G92b billiger als beim R770 sein dürften, oder mit dem Preis der eigentlichen Karte zu tun.
Fakt ist, AMD kann ihre 5D Shadermasse schwer zu 100% auslasten, jedoch braucht der Chip bei 70 % Auslastung der Shader wohl schon 100% Strom was zu höherem Last Verbrauch führt. Die Stromsparmodi der HD4870 sind bis jetzt alles andere als rosig. Man wird sehen was ein Treiber bringt, kann mich aber nicht daran erinnern dass ein Treiber mir nichts dir nichts mal eben 80% des Idle Verbrauchs gebasht hat. Super, das Argument eigenes Bios drauf bzw mit Tools runtertakten ist ja auch so genial. Flasht ja auch jeder mal eben neues Bios auf seine Karte und killt damit die Garantie. Mit nem Tool wär mir das ganze auf Dauer auch zu stressig. Die Zahl derer dürfte in die Richtung 2560er Zocker gehen...
An dieser Stelle muss ich Nvidia loben. 65nm , bessere Stromsparfunktion so far, mehr Leistung, 20% OC Potential. Chipgröße interessiert hier nicht. Chip lässt sich besser auslasten. Mehr GPGPU Leistung.
BTW: Schaut euch mal die Preise an:
260 GTX 257€
HD 4870 201 €
280 GTX 385€
bei weitem nicht die Welt wenn man 20 % OC Potential und besseren Verbrauch noch einrechnet. Zumindest rechtfertigt es nicht jetzt AMD/ATI über alles zu stellen und Nvidia als überteuerte Scheißkarten darzustellen. Genausowenig wie HD 38XX Karten scheiße waren als 95% der Nvidia Basher hier gegen ATI geschrieen haben.
Ich kann AMD/ATI jedenfalls mehr für die HD4850 als für die 4870 loben. Großer Vorteil seitens AMD/ATI ist zudem dass man eine 10.1 Karte mit gutem Videoprozessor, Sound on Board und Leisem Lüfter bekommt. Und das für relativ wenig Geld (Muss AMD auch so angehen um Kunden zu gewinnen)
in diesem Sinne, basht euch net so, und lasst Unyu au ab und zu seine Meinung
Kritisieren kann man an Nvidia dass verkackte Namensshema und die fehlenden Dx 10.1 . Das wars dann aber auch. Die Preise machen sich sowieso meist selber.
@ Bensen: Danke für deine guten Posts, selbes gilt auch an AvenDexx
Edit: die GTX 280 braucht ganze 7% mehr Saft als eine HD 4870
Schaun wir uns das Rating an. In 8x AA ( uninteressant für mich) und 1600er ist die AMD/ATI um knappe 4 % schneller. In allen anderen Benches und dem wichtigeren 4xAA um zw 8 - 30% (bis 30%), meist um die 20% schlechter. Bei 65nm. Von einer Müll Karte würde ich hier nicht reden. Klar ist die Preis/Leistung bei der HD4870 besser, das weiß ich selber.
wie manch einer hier schon erwähnt hat darf man hier keinesfalls ATI/AMD nun in den Himmel loben und Nvidia bashen. Jede Karte hat Vor- und Nachteile.
Kaum Jemand spielt mit 2560er Auflösung, aber zukünftige Spiele werden die Leitsungin 1600 brauchen die ein heutiges in der 2560er Auflösung braucht. Genauso mit AA, kaum jemand nimmt 8x AA, 4x reichen dicke und oft siehts bei nem geeigneten TFT mit höchter Auflösung besser aus als in niedriger mit AA. Sprich lieber ohne AA zocken wenn man in einem framekritischen Bereich ist.
Es steht außer Frage dass AMD mit der 4XXX Leistungstechnisch sehr gut aufgeholt hat. Kann man aber auch bei Faktor 2,5 bei Shaderleistung und Texturleistung erwarten!
Und zu welchem Preis? Der Stromverbrauch ist exorbitant hoch. Man muss das ganze in Relation zu den 55nm und der geringen Chipgröße sehen. Hier steht Nvidia eindeutig effektiver da!
Und dann noch so unsinnige Vergleiche zwischen einer 280GTX und einer 4870... Spart euch die Vergleiche oder vergleicht ihr auch einen Q9450 mit einem QX9770?? Selbst wenn die 280 GTX nur 10 % mehr Leistung bieten würde, würde Nvidia 400-500 Euro verlangen. Außerdem ist der Preis der 280 GTX auf unter 400 € gefallen... Eure Weltanschaunung kann doch nicht so durcheinander sein dass ihr erwartet dass die leistungsstärkste Singelkarte, das Topmodell, eine bessere Preis Leistung bietet als eine High Midrange Karte... War das jemals so? o.O
Soll ich jetzt damit anfangen dass eine GTX 260 die HD 4870 deklassiert da sie bei weit weniger Stromverbrauch in alter 65nm Technik mehr Leistung bietet als eine HD 4870? Vom Preis mal abgesehen. Der wird aber auch nach unten gehen. Vermutlich ist der G200 der 260 GTX teurer, aber die Karten insgesammt werden sich nicht viel schenken in der Produktion. GDDR5 ist auch bein billiger Spaß. Und Unyu hat in sofern recht das wohl wirklich viele Transistoren auf dem G200 für GPGPU verwendet wurden.
Ganz einfacher Vergleich: Schaut euch die Größe des G92 und des R770 an. Schaut euch die GPGPU Leistung der HD 4870 der GTx 280 und der 9800+ an. Nvidia kann nicht solch ein Plus herausholen durch einfache Erhöhung der Shaderzahl. Steht auch im zugehörigen CB Test.
Rein Chiptechnisch ist der G92b schneller als ein R770, zumindest effizienter. Er besitzt nicht die Wunder Stromsparmechanismen. Aber er ist obwohl er sogar etwas kleiner als ein R770 ist schneller bei weniger Verbrauch. Soviel zur Effizienz. Die hat nämlich nichts mit Herrstellungskosten, die beim G92b billiger als beim R770 sein dürften, oder mit dem Preis der eigentlichen Karte zu tun.
Fakt ist, AMD kann ihre 5D Shadermasse schwer zu 100% auslasten, jedoch braucht der Chip bei 70 % Auslastung der Shader wohl schon 100% Strom was zu höherem Last Verbrauch führt. Die Stromsparmodi der HD4870 sind bis jetzt alles andere als rosig. Man wird sehen was ein Treiber bringt, kann mich aber nicht daran erinnern dass ein Treiber mir nichts dir nichts mal eben 80% des Idle Verbrauchs gebasht hat. Super, das Argument eigenes Bios drauf bzw mit Tools runtertakten ist ja auch so genial. Flasht ja auch jeder mal eben neues Bios auf seine Karte und killt damit die Garantie. Mit nem Tool wär mir das ganze auf Dauer auch zu stressig. Die Zahl derer dürfte in die Richtung 2560er Zocker gehen...
An dieser Stelle muss ich Nvidia loben. 65nm , bessere Stromsparfunktion so far, mehr Leistung, 20% OC Potential. Chipgröße interessiert hier nicht. Chip lässt sich besser auslasten. Mehr GPGPU Leistung.
BTW: Schaut euch mal die Preise an:
260 GTX 257€
HD 4870 201 €
280 GTX 385€
bei weitem nicht die Welt wenn man 20 % OC Potential und besseren Verbrauch noch einrechnet. Zumindest rechtfertigt es nicht jetzt AMD/ATI über alles zu stellen und Nvidia als überteuerte Scheißkarten darzustellen. Genausowenig wie HD 38XX Karten scheiße waren als 95% der Nvidia Basher hier gegen ATI geschrieen haben.
Ich kann AMD/ATI jedenfalls mehr für die HD4850 als für die 4870 loben. Großer Vorteil seitens AMD/ATI ist zudem dass man eine 10.1 Karte mit gutem Videoprozessor, Sound on Board und Leisem Lüfter bekommt. Und das für relativ wenig Geld (Muss AMD auch so angehen um Kunden zu gewinnen)
in diesem Sinne, basht euch net so, und lasst Unyu au ab und zu seine Meinung
Kritisieren kann man an Nvidia dass verkackte Namensshema und die fehlenden Dx 10.1 . Das wars dann aber auch. Die Preise machen sich sowieso meist selber.
@ Bensen: Danke für deine guten Posts, selbes gilt auch an AvenDexx
Edit: die GTX 280 braucht ganze 7% mehr Saft als eine HD 4870
Schaun wir uns das Rating an. In 8x AA ( uninteressant für mich) und 1600er ist die AMD/ATI um knappe 4 % schneller. In allen anderen Benches und dem wichtigeren 4xAA um zw 8 - 30% (bis 30%), meist um die 20% schlechter. Bei 65nm. Von einer Müll Karte würde ich hier nicht reden. Klar ist die Preis/Leistung bei der HD4870 besser, das weiß ich selber.
Zuletzt bearbeitet: