News Nennt Nvidia die GeForce-9-Serie um?

Seit wann kann AMD PhysX? Bitte um Link nach AMD.com

Die 5% Mehrleistung sind jetzt der einzige herausragende Punkt, den nur AMD beim Wechsel HD2 -> HD3 bot.
Diese 5% sind für dich ein Grund für einen 1000er mehr?
Wegen 5% ist es ok? Features können es nicht sein, weil die ja die Konkurrenz auch bietet und zum Teil sogar ohne neue Serie!

Ich kann mich noch erinnern, das es damals erst bei echten Performancesteigerungen legitim war, einen 1000er ranzuhängen. Heutzutage genügen 5%, ne da kannst du nicht behaupten, AMD wäre hier das brave Schosshündchen.

Übrigens, deine Aussage die 9800 GTX wäre nie schneller, ist falsch.

Warum wird fast nie der falsche Name der G92 8800 betrachtet, im Fall der GF9?


Es wird immer wegen Namensverwervirrung gemeckert. Du willst das ganze ja noch xx50 und xx58,123 Karten verschlimmern, natütlich nur bei Nvidia, AMD darf nen 1000er ranhängen.
Diesen Punkt verstehe ich noch nicht ganz.
 
Zuletzt bearbeitet:
Ich red jetzt nur mal von der Umbennenung von 8800GT zu 9800GT zu GTX1xx:

Bei der HD3870 (RV670) haben die aber nicht alte HD2900 (RV600) Chips genommen und einfach umgelabelt! Das sind überarbeitete Chips. Bei der 8800GT haben die wirklich nur den Namen geändert und halt ein paar Features. Der Chip G92 wurde beibehalten, bei der Änderung zur 9800GT. Und das soll jetzt ein 2. mal stattfinden in der Umbennenung zur GTX1xx ???

HD2900->HD3870: 55nm, DirectX10.1, drastisch gesenkter Stromverbrauch, Kühler, mehr Leistung (zwar nicht viel, aber etwas), schlechter Ruf der HD2900

8800GT->9800GT: 55nm (manchmal?), Triple SLI, Hybrid SLI und Kühler

Also welcher Namenswechsel war wohl angebrachter?

Und nicht nur das, sondern NV will diese Karte jetzt nochmal umlabeln.
 
@Unyu: 8850 wäre unproblematisch, gab es ja auch schon bei der GF7, Du errinerst Dich? Und es wäre, wenn es ebenfalls so gemacht worden wäre, als der erste G92 in Form der 8800 GTS refresh kam, richtig gewesen. NIEMAND hätte dann jetzt einen Grund, zu motzen, die GeForce 9 wäre dann die jetzige GeForce GTX-Serie.

Die ATi-Karten KÖNNEN PhysX, dazu gibt es sogar einen Artikel hier auf CB. ATi unterstützt das aber selber nicht; kein Wunder, schließlich steckt AMD mit Intel und MS unter einer Decke wegen Havok. ;)
 
Warum werden nur Fudzilla News über Nvidias Namensschema kopiert?
AMDs News werden weggelassen: http://www.fudzilla.com/index.php?option=com_content&task=view&id=9512&Itemid=65


SamSoNight

Gut, tanzen wir weiterhin auf einer Karte rum und lassen das Umfeld mit enormen Einfluss weg.

Du könntest die 55nm fast noch weg lassen, das ist kein Grund für eine Namensänderung.

"Welcher Namenswechsel war angebrachter?"

HD3870 hätte HD2950 Pro heißen müssen, rein logisch gesehen.
HD3650 wäre noch vertrettbar, wenn man beide Augen ganz fest zudrückt.

"schlechter Ruf der HD2900"

Das gilt nur, wenns AMD betrifft? Sonst wäre die GF200 Neugestaltung vollkommen legitim.


FortissimoIV

Bei der GF7 ist der Chip identisch geblieben: 7950 GT und 7950 GX2.
Hier willst du einen vollkommen anderen Chip mit einer 50 versehen, auf der anderen Seite duldest du die Umbennung, wobei dort nicht mehr veränderrt wurde.

"die GeForce 9 wäre dann die jetzige GeForce GTX-Serie."

Von Anfang an?

AMD kann PhysX, unterstützt es nur nicht? Ja sind wir schon so weit, das wir über Scheinfeatures diskutieren?
btw Havok FX (GPU beschleunigt) ist tot.
 
Die GeForce 8 hatte alles andere als einen schlechten Ruf, sie war eine lebende Legende. Hätte nVidia von mir aus mit der Einführung des G92 - denn es war ja ein neuer Chip (wenn auch nur geshrinkt und detailverbessert) - die GeForce 9 gestartet, und nicht willkürlich, weil gerade ein neues Jahr anfing, hätte ich das mit deutlich weniger Zähneknirschen hingenommen; genau wie beim Wechsel von HD 2k auf HD 3k.
 
@Unyu, es geht um die ganze SERIE. Ich kann Dir nicht sagen, was von 7900 auf 7950 anders wurde, aber das ist immer noch nicht dasselbe, als die SERIE von GF8 auf GF9 umzubenennen... und das jetzt schon WIEDER!

Und jetzt wird's interessant... eher ist PhysX tot als Havok... momentan deutet alles darauf hin, daß MS es in DirectX 11 integriert, weil sie einen Physikstandard etablieren wollen. Und damit wäre PhysX erledigt.
 
Unyu schrieb:
Schlechte Ausrede mit dem Flagschiff. So eine Basellösung gabs auch bei der Konkurrenz, nennt sich 9800 GX2.

Richtig. Die 9800GX2 und die 9600GT sind auch die einzigen "neuen" in der GeForce 9 Serie und haben zudem nichts anderes zu bieten. [...]:

DIE-Shrink? Ja. Aber nicht bei allen Modellen (wie bei der HD 3k) und wenn, dann nur schlecht ersichtlich.
Neue Features? Nö. Höchstens "Hybrid SLI" -> Boardabhängig.
Verringerte Leistungsaufnahme? Bedingt.
Mehr Geschwindigkeit? Bis auf 9800GX2 sogar deutlich unter GeForce 8. (Ist bei HD 3k nicht so gravierend.)
Fortschritt? Definitionssache.
 
@MacPok
Nur 2 Neue?
Ich zähle: 9300 GE, 9300 GS, 9400 GT, 9500 GT, 9600 GT, 9800 GTX, 9800 GTX+, 9800 GX2
All jene wurden gleich richtig benannt.

Nichts neues? Die Features wurden ja aufgezählt. Massive Performancesteigerungen sind kein Grund?
Mal anders betrachtet: Bei der HD3 gibts nur eine einzige Karte mit deutlicher quasi Performancesteigerung: HD3870 X2.

Hybrid SLI ist Boardabhängig? Ja, so ist das halt, aber nenne mir doch einen Grund warum es deshalb nicht als Feature zählt? Das bis heute ungenutze D3D10.1 ist auch Vista abhängig.

Wie gesagt, 2,3 neue Features, einmal ist ein 1000er mehr erlaubt, einmal nicht.

Deutlich unter der GF8?
Damit kannst du nur die 9800 GTX meinen. In den entscheidenden Balken (du scheinst wohl andere Balken zu meinen) hält sie gut mit der 8800 GTX mit, nicht schlecht für eine Performancekarte


@FortissimoIV
Ich kanns dir sagen, bei einer Karte wurde der Takt angehoben und der VRAM verdoppelt, einmal wurde die Karte kürzer.
Ich weiß gar nicht wie du auf die GF7 kommst. Ein Wechsel von G8x nach G9x ist ja wohl gravierender als ein Wechsel von G71 nach G71.

Ich meine übrigens Havok FX, nicht Havok.
 
nvidia hat nur eine möglichkeit um physx gegen havok durchzubringen: amd muss mit aufspringen.
eine Lösung für nur einen Grafikkartenhersteller ist für Spielehersteller nicht der Mühe wert (siehe Dx10.1).
Es sein denn nvidia pusht die ganze sache durch ihre twimtbp-bestechung...ehmm support.
 
Unyu schrieb:
@MacPok
Nur 2 Neue?
Ich zähle: 9300 GE, 9300 GS, 9400 GT, 9500 GT, 9600 GT, 9800 GTX, 9800 GTX+, 9800 GX2
All jene wurden gleich richtig benannt.

Ich glaube das Thema hatten wir schon zu Zeiten GeForce 9800GT/8800GT/G92-270.
Gemeint war, dass es außer der GeForce 9600GT und der 9800GX2 keine wirklichen neuentwicklungen gab. Vielleicht ein leicht abgeändertes PCB - dabei bleibts dann aber auch. Und sowas wie DIE-Shrink/55nm/65nm kann ich auf keinem Karton einer GF9-Karte erkennen, bei der HD 3k weiß ich dass jeder Chip in 55nm gefertig ist. Ist deiner Meinung ja sowieso Pott wie Deckel.:)

Unyu schrieb:
Nichts neues? Die Features wurden ja aufgezählt. Massive Performancesteigerungen sind kein Grund?
Mal anders betrachtet: Bei der HD3 gibts nur eine einzige Karte mit deutlicher quasi Performancesteigerung: HD3870 X2.
Bei der GF9 gibts nur eine einzige Karte mit deutlicher quasi Performancesteigerung: GF9800GX2
9600GT war zwar eine gute Neuentwicklung, positionierte sich jedoch zwischen 8800GS und 8800GT.

Unyu schrieb:
Hybrid SLI ist Boardabhängig? Ja, so ist das halt, aber nenne mir doch einen Grund warum es deshalb nicht als Feature zählt? Das bis heute ungenutze D3D10.1 ist auch Vista abhängig.
Wo habe ich gesagt, dass irgendwas nicht zu Features zählt? Fakt ist:
Das ATI PowerPlay auf der HD 3k ist Boardunabhängig und arbeitet sogar auf NV-Boards extrem effektiv. - Kann man von der GeForce 9 nicht behaupten, und wenn doch, dann nur unter finanziell anderen Vorraussetzungen.:(

Unyu schrieb:
Wie gesagt, 2,3 neue Features, einmal ist ein 1000er mehr erlaubt, einmal nicht.

Deutlich unter der GF8?
Damit kannst du nur die 9800 GTX meinen. In den entscheidenden Balken (du scheinst wohl andere Balken zu meinen) hält sie gut mit der 8800 GTX mit, nicht schlecht für eine Performancekarte

Was erlaubt ist oder nicht, sei mal dahingestellt. Bis dato habe ich jedenfalls lediglich verglichen.
Und wenn gerade du so erpicht darauf bist, müsstest du zustimmen dass nVidia ja die Gelegenheit hatte mit "gutem Beispiel":rolleyes: voranzugehen und anstatt einer GeForce 9/ 9800GTX eine GeForce 8850GTS hätte machen können.

Die GeForce 8800Ultra bleibt mit Ihren 0,75GB nicht nur aufgrund des mieserablen und verschwenderischen Speichermanagements der GF8 und GF9 eine der GeForce 9800GTX definitiv überlegene Karte. Gerade du argumentierst doch auch immer gerne mit 512MB Speicher sind zu wenig und ich stimme dem insofern zu dass eben eine GeForce 8/9 von 640MB ggü 320MB (8800GTS) bzw. 1024MB ggü 512MB (9800GTX) profitieren würde.
 
bartio schrieb:
eine Lösung für nur einen Grafikkartenhersteller ist für Spielehersteller nicht der Mühe wert (siehe Dx10.1).
Da mach dir mal keine Sorgen, Nvidia betreibt Entwicklersupport, anders als AMD, Stichwort D3D10.1. :p
btw twimtbp != Entwicklersupport

btw Havok macht dank langsamer CPUs nicht wirklich Spass.

MacPok schrieb:
Und sowas wie DIE-Shrink/55nm/65nm kann ich auf keinem Karton einer GF9-Karte erkennen
Na bei einer GF9 weißt du:
Es ist defintiv eine 65/55nm GPU drin.
Bei einer GF8 gibts 90/80/65nm.

Das die Fertigung egal für den Namen ist, ist nicht meine Idee, sondern Nvs, Beispiel 9600 GT.

MacPok schrieb:
Bei der GF9 gibts nur eine einzige Karte mit deutlicher quasi Performancesteigerung: GF9800GX2
Vielleicht reden wir aneinander vorbei. :confused_alt:
Ich meine Beispiele wie diese:

8400 GS -> 9400 GT
8500 GT -> 9500 GT
8600 GT -> 9600 GT

Jetzt vergleiche mal:
HD2400 Pro -> HD3450
HD2400 XT -> HD3470
HD2600 Pro -> HD3650
HD2600 XT -> HD3670
HD2900 ?? -> HD3850
HD2900 XT -> HD3870

MacPok schrieb:
Das ATI PowerPlay auf der HD 3k ist Boardunabhängig und arbeitet sogar auf NV-Boards extrem effektiv. - Kann man von der GeForce 9 nicht behaupten, und wenn doch, dann nur unter finanziell anderen Vorraussetzungen.
Mag sein, das Powerplay öfter nutzbar ist. Dafür ist das Ausschalten der kompletten dedizierten Grafikkarte ein sehr sinnvoller Ansatz. Sind halt 2 völlig verschiedene Dinge.
Und seien wir ehrlich, Powerplay ist im Prinzip auch mit einer HD2 möglich, haben sich ja genug selbst zurechtgebastelt.

Wie du allerdings bei einer 8800 GTX den VP2 nutzen willst, ist mir ein Rätsel....

MacPok schrieb:
Was erlaubt ist oder nicht, sei mal dahingestellt. Bis dato habe ich jedenfalls lediglich verglichen.
Und wenn gerade du so erpicht darauf bist, müsstest du zustimmen dass nVidia ja die Gelegenheit hatte mit "gutem Beispiel" voranzugehen und anstatt einer GeForce 9/ 9800GTX eine GeForce 8850GTS hätte machen können.
Das gute Beispiel war in dem Fall die 8800 GT und 8800 GTS und 8800 GS und 8400 GS. ;)

Wir erinnern uns: Die 8800 GT Launch war kurz vorm HD38xx Launch.
Die 9600 GT, die erste GF9 gabs erst einige Monate danach.

MacPok schrieb:
Die GeForce 8800Ultra bleibt mit Ihren 0,75GB nicht nur aufgrund des mieserablen und verschwenderischen Speichermanagements der GF8 und GF9 eine der GeForce 9800GTX definitiv überlegene Karte.
Die 9800 GTX ist nicht der Nachfolger der 8800 Ultra. Das war sie nie.

Verschwenderisch ist unwahr, belegt wurde es hier. https://www.computerbase.de/2008-04/bericht-wieviel-grafikkartenspeicher-muss-sein/5/#abschnitt_vrammessungen
Und es gibt deutlich mehr als die 256MiB VRAM Unterschied zwischen den Beiden.

Die Frage ist auch: WO ist die 8800 GTX überlegen? In Crysis Warhead und den üblichen 60s Benches ist die 9800 GTX klar schneller.
Einzelfall? Nein.

MacPok schrieb:
Gerade du argumentierst doch auch immer gerne mit 512MB Speicher sind zu wenig
Ja tue ich.:)
Aber vielen gehts um die Balkenlänge und manch einer ist in der Lage sparsam mit dem VRAM umzugehen, nicht vergessen. ;)
 
Unyu schrieb:
Mit neuen Features meinst du? Powerplay? Ja drüben gibts Hybrid Power.
Oder D3D10.1? PhysX gibts sogar ohne neuen Namen, das kann ja kein Grund sein.

hat aber nichts mit der architektur der GF9 karten zu tun, auf GF8 karten ist es genau so zu nutzen. ist nur ne software sache,dafür ein neuer name?

ok, was hier alle meinen.

wir haben hier den tollen g92 chip, mit diversen taktraten. dieser steckt in einer 8800gt, in einer 8800gts, dann in einer 9800gtx und in einer 9800gtx+. dann kommt er noch in der 9800gt vor und jetzt soll er in einem GT100 vorkommen. der selbe chip mit der selben architektur wird unter 3 namen verkauft. das ist die verarsche.

und als vergleich,da ATI ja so unfair ist. bei ati wurde in form vom R600 in den HD29XX karten ein chip verbaut und in der HD3generation wars ein überarbeiteter RV680 chip, der zwar die selbe architektur (was kein kriterium für eine neue generation ist) hat,aber überarbeitet wurde, in form von energieersparnis, DIE shrink, diversen AA verbesserungen usw. das rechtfertigt einen neuen Namen. aber keine softwarefeatures wie PhysX, die auf jeder karte laufen könnten.

gruß
 
Unyu schrieb:
Die 9800 GTX ist nicht der Nachfolger der 8800 Ultra. Das war sie nie.

Und welche Karte der GeForce 9 hast du dann zur Nachfolgerin der 8800Ultra auserkoren? Etwa die 9800GX2? Und was soll deiner Meinung nach die Nachfolge-Karte der HD 2900XT sein? :confused_alt:

Unyu schrieb:
Verschwenderisch ist unwahr, belegt wurde es hier.

Der Speicherkontroller einer HD 3k/2k war schon besser als der der GeForce 8/9. Und es sieht mit dem Speichermanagement der GeForce GTX2/ GeForce 9 gegenüber der HD 4k viel gravierender für die geForce Karten aus. Eine HD 4850 (und sogar auch die 70er) geht gekonnt mit ihren "mikrigen" 512MB durch alle Lebenslagen. Kann man von der 9800GTX(+) nicht behaupten.

Unter Anderem ist auch der hohe Speicherverbrauch der geForce Karten gegenüber aktuellerer Generationen einer meiner Kritik-unter-Punkte am nVidia Design. Hier müsste nVidia dringend nachbessern, anstatt mit einer eventuellen neuen Generation das Manko mit 2048MB zu kompensieren. :(

Unyu schrieb:
Die Frage ist auch: WO ist die 8800 GTX überlegen? In Crysis Warhead und den üblichen 60s Benches ist die 9800 GTX klar schneller.
Einzelfall? Nein.

Ich glaube die Vor- und Nachteile der beiden Karten stehen bei 50:50. Gerade in qualitativ hochwertigen Settings ist eine 8800GTX Ihrer Nachfolgerin (?:confused_alt:) überlegen.
 
Schinzie schrieb:
wir haben hier den tollen g92 chip, mit diversen taktraten. dieser steckt in einer 8800gt, in einer 8800gts, dann in einer 9800gtx und in einer 9800gtx+. dann kommt er noch in der 9800gt vor und jetzt soll er in einem GT100 vorkommen. der selbe chip mit der selben architektur wird unter 3 namen verkauft. das ist die verarsche.
Eine Schraube alleine macht kein Auto. ;)

Im Fall des G92 gibt es auch nichrt "den G92". Schon mal auf die Bezeichnung hinter der "2" geguckt?

Wärst du mit dem Namen 9800 GT zufrieden gewesen, wenn es ihn gleich gegeben hätte?

Schinzie schrieb:
ist nur ne software sache,dafür ein neuer name?
Könnte man von Powerplay auch behaupten. ;)

Bleibt also das bisher ungenutze D3D10.1, 55nm, Halbierung des SI und 5% mehr Leistung der Grund für den 1000er mehr.


MacPok schrieb:
Und welche Karte der GeForce 9 hast du dann zur Nachfolgerin der 8800Ultra auserkoren?
Keine.

MacPok schrieb:
Und was soll deiner Meinung nach die Nachfolge-Karte der HD 2900XT sein?
HD4870 (1024).

MacPok schrieb:
Eine HD 4850 (und sogar auch die 70er) geht gekonnt mit ihren "mikrigen" 512MB durch alle Lebenslagen.
Nicht durch alle. Wenns immer mal wieder kurz ruckelt, macht das auch wenig Spass. Aber der avg FPS Balken bleibt eben noch schön lang, darauf kommts ja an....

MacPok schrieb:
Hier müsste nVidia dringend nachbessern, anstatt mit einer eventuellen neuen Generation das Manko mit 2048MB zu kompensieren. :(
Naja dieses "Manko", das die Karten stark am PCIe hängen, gabs auch schon bei der GF7.
Damals hats keinen gestört.

512MiB ist so ein besonderer Fall, diese Größe ist seit Jahren Standard gewesen, da war der Sprung auf mehr definitv mal notwendig.

Und wann kommen die neuen Konsolen? Dann weißt du wanns mehr VRAM braucht. ;)

MacPok schrieb:
Ich glaube die Vor- und Nachteile der beiden Karten stehen bei 50:50. Gerade in qualitativ hochwertigen Settings ist eine 8800GTX Ihrer Nachfolgerin (? nö) überlegen.
Was ist hochqualitätiv? ;)
AA oder AF? Große Texturen oder viele Shader?
 
Zuletzt bearbeitet:
Unyu schrieb:
Eine Schraube alleine macht kein Auto. ;)

Das stimmt, allerdings die GPU als Schraube auf der Grafikkarte zu bezeichnen ist etwas sehr verwegen, wenn dann ist die GPU der Motor und ein Motor macht den Großteil eines Autos aus.
Und Nvidia verkauft nunmal demnächst ein veraltetes Motorenkonzept als neuwertig und das ist der Punkt wo der Fisch zu stinken anfängt.
 
Unyu schrieb:
Könnte man von Powerplay auch behaupten. ;)

Ich würde die powerPlay technik nicht durch den Sand ziehen. Etwas vergleichbares kann mir nVidia absolut nicht bieten und auf eben etwas vergleichbares von nvidia warte ich dringendst.

Unyu schrieb:

natürlich keine ... :rolleyes:
Die 7800GTX war ja auch nicht der Nachfolger der 6800Ultra, und
Die 8800GTX war ja auch nicht der Nachfolger der 7900GTX/GX2 ... :schaf:

Unyu schrieb:

Da mag was dran sein.
Ich lege dir trotzdem die HD 3870X2 ans Herz und viellerlei neue/ nette Zusatzfeatures wie eben das sehr gute, konkurenzlose PowerPlay. :)

Unyu schrieb:
Nicht durch alle. Wenns immer mal wieder kurz ruckelt, macht das auch wenig Spass. Aber der avg FPS Balken bleibt eben noch schön lang, darauf kommts ja an....
Wann habe ich gesagt, dass ich ausschließlich lange Balken mag? Legst du immer anderen irgendwelche Sachen (vorzugsweise in Verbindung mit "Balken") in den Mund, wenn dir was nicht passt?:(

Unyu schrieb:
Naja dieses "Manko", das die Karten stark am PCIe hängen, gabs auch schon bei der GF7.
Damals hats keinen gestört.
MICH hatte es gestört.:)


Unyu schrieb:
512MiB ist so ein besonderer Fall, diese Größe ist seit Jahren Standard gewesen, da war der Sprung auf mehr definitv mal notwendig.
Der Schritt ist eine Notwendigkeit, richtig. Aber jedenfalls (noch) nicht bei ATI Karten.;)

Unyu schrieb:
Was ist hochqualitätiv? ;)
AA oder AF? Große Texturen oder viele Shader?
Muss ich darauf eingehen? :rolleyes:
 
Unyu schrieb:
Könnte man von Powerplay auch behaupten. ;)
Könnte man, wäre damit aber etwas auf dem Holzweg.

Unyu schrieb:
Bleibt also das bisher ungenutze D3D10.1, 55nm, Halbierung des SI und 5% mehr Leistung der Grund für den 1000er mehr.
Du hast die ungefähre Halbierung der Leistungsaufnahme vergessen ;)
Natürlich ist der Generationssprung fraglich und vor allem dem schlechten Ruf der 2900 geschuldet. Aber wenn es jetzt nVidia zum zweiten Mal macht, ist das schon etwas dreist.

Unyu schrieb:
Folglich findest du den Sprung auf GF9 auch nicht gerechtfertigt?! Neue Generationen haben doch immer so die Eigenschaft, Nachfolger der vorherigen Generation zu haben :p

Unyu schrieb:
Nicht durch alle. Wenns immer mal wieder kurz ruckelt, macht das auch wenig Spass. Aber der avg FPS Balken bleibt eben noch schön lang, darauf kommts ja an....
Jup, aber das gilt wohl für alle Grafikkarten gleichermaßen. Oder willst du behaupten, dass ne GeForce bei gleichlangen Balken weniger ruckelt als ne Radeon?

MacPok schrieb:
Ich würde die powerPlay technik nicht durch den Sand ziehen. Etwas vergleichbares kann mir nVidia absolut nicht bieten und auf eben etwas vergleichbares von nvidia warte ich dringendst.
Dann guck dir mal die Idle-Werte vom GT200 an, da hat sich schon einiges getan. Zumindest ist es besser als das "konkurrenzlose" PowerPlay auf den 48x0.
 
Zuletzt bearbeitet:
Unyu schrieb:
Diese Aussage passt nicht zu den 3 Links.
Es sei den du meinst die CPU Limitierung ganz oben.
Witzig wie du reagierst, wenn du deine eigene Medizin zu schlucken bekommst. Diskussion sinnlos.


Einige Denkansätze für diesen stumpfsinnigen Thread:

  • Was hat Ati mit der Namensgebung bei Nvidia zu tun?
  • Wer sollte was, warum rechtfertigen?
  • Was hat kein Ende und keinen Anfang?
 
Zuletzt bearbeitet:
@riDDi

Danke, Danke, Danke! :)

Du hast natürlich absolut recht.
 
Dir bin ich nichtsdestoweniger auch noch eine Antwort schuldig: :)

aspro schrieb:
Dann guck dir mal die Idle-Werte vom GT200 an, da hat sich schon einiges getan. Zumindest ist es besser als das "konkurrenzlose" PowerPlay auf den 48x0.

Neben dem offensichtlichen Defekt des PowerPlay-Mechanismus auf der HD 4850/70 (nicht aber auf der HD4870X2) interssiert mich viel mehr der Stromspar-Mechanismus, wie viele andere auch, im Mainstream-Segment. Und da kann ATI tatsächlich mit HD 3870 und HD 4670 punkten. Eine 9800GT oder eine 9600GSO kann das leider nicht.

Nichtsdestotrotz hast du recht, dass nVidia mit dem G200 dazu gelernt hat. Das ist aber trotzdem noch nicht ganz "gut".

Ich muss mich immer wieder fragen warum eine Doppel-Chip HD 3870X2 gerade mal 10W mehr im Idle verbraucht als eine 9800GTX(+)?.
Ich habe kein problem damit, dass eine Grafikkarte unter Last eben mehr verbraucht, ich sehe aber nicht ein warum hier manch ein Idle-Wert gegen den Last-Wert konvergiert.

Übrigens war gerade das defekte PowerPlay auf der HD4850 der grund warum ich diese karte nicht gekauft habe :) ... leider :(
 
Zuletzt bearbeitet:
Zurück
Oben