News nVidia senkt Netzteilanforderung für GeForce 6

@19 porn()pole

Er meint bestimmt die Shader 3.0 und den damit benötigten Support von Dx9.0c, was anderes kann ich mir im mom auch nicht vorstellen, aber eine Erklärung hätte ich diesbezüglich auch gerne... Zumal das im Mom noch keinen allzugroßen Sinn macht und bis das zum Tragen kommt, evtl Ende das Jahres (frühestens), dann hat ATi ja schon angekündigt (meine ich gelesen zu haben), dass sie diesen Support in den R500 integrieren wollen. (dann macht es ja auch Sinn, da Spiele es nutzen) ;)

MfG
CyReZz
 
Tja dann schaut euch mal ein paar seriöse und tiefere Tests mit der 6800 an. Selbst die Ultra Extreme braucht nur nen 350W Netzteil mit nem wirklich vollgepacktem PC. Wer die Reviews aufmerksam gelesen hat und nicht einfach zu den Benchmarks gesprungen ist, hat das eigentlich vorher schon merken müssen, dass Nvidia da einfach nur auf der sicheren Seite sein wollte. Aber egal was die machen, es wird immer Basher geben. :rolleyes:
Das selbe gilt übrigens für den Lüfter der hier von einigen ATI gesponsorten Seiten als 3-10 mal so laut angeprangert wird.
 
@Beaver
einfach auf der sicheren Seite... hmmm...
wenn ein 350W Netzteil mit vollem PC locker reicht, warum geben sie dann horrende 480W an, und nicht z.B. 400W? is ja dann overkill...
v.a. wenn ja wohl klar ist, dass ne Angabe von 480W viele abschrecken würde...
hätten se lieber gleich die 350W angegeben (haben die das vorher net getestet?!? haben se sicher), hätte das keine Negativ-Schlagzeilen gemacht
 
porn()pole schrieb:
Jesses, Alter... da krieg'isch Plaque! ;)

Deine Ausführungen entbehren jeglicher geistigen und linguistischen Logik!
Die ganze Welt schreit auf, dass Nvidia mit dem Stromhunger Sch***e gebaut hat, aber dich scheints ja nicht zu stören...

Und das mit dem Einfallsreichtum musst du mir auch noch erklären... :rolleyes:

Boah "Die ganze Welt schreit auf" - war es nicht von Anfang an klar, dass über 220 Mio Transistoren auch gut Strom verheizen werden?

Will hier irgendjemand rummjammern, er möchte sich eine Highend Karte für z.T. weit über 500€ kaufen aber es reicht nicht für ein vernünftiges NT - einem der wichtigsten Bausteine eins Rechners?

Und ja die 480W sind bei vielen bitter nötig - schließlich liefern viele Billignetzteile weit weniger Leistung wie draufsteht.
 
@Supiman
Sollte eigentlich jedem klar sein, dass sie mit 480W den worst case meinen. Les dir mal den ganzen Artikel auf Gamespot durch.
Und ja, wäre wohl besser gewesen wenn sie es für die meistens fanATIker anders formuliert hätten, damit haben sie nur diesen Typen Fleisch zugeworfen.
 
@24 Phobos

Kannst du mir dann bitte ein 480 Watt Netzteil für meinen Barebone besorgen ? THX

Ne, jetzt mal im ernst.

1. Welcher standard Rechner hat ein 480 Watt Netzteil ? HP Desktops (VL 420)zB haben noch nicht mal ein 200 Watt NT.

2. Mehr Transistoren heißt nicht unbedingt mehr Stromhunger. (siehe ATI:-))

3. Wenn ich lange genug nachdenke, dann kann ich mir alles schön reden.
 
@25 Beaver
Artikel hab isch gelesen, Danke ;)
von mir aus meinen sie Worst Case
ändert nix dran dass die 480W schon zu lange im Raum gestanden sind, bevor nVidia aufgeklärt hat dass das nur Worst Case is und die Empfehlung auf 350W runtergesetzt hat.
und letztendlich is dat Teil von nVidia schlicht ja auch stromhungriger...

ach ja, alle Äusserungen sind natürlich Beweise dass ich ATI-Fanboy bin ;)
 
Anruf beim Stromversorger: "Ok, also sie können jetzt den nächsten Block ans Netz nehmen. Ich schalte jetzt gleich meinen PC ein..."

Mh.. also ich weis nicht :-) nVidia wirkt auf mich mehr und mehr abstrakter in letzter Zeit...
 
Was ihr euch alle über NVidia aufregt? Auch die X800 ist nicht grad ein Kostverächter. Die lächerlichen paar Watt mehr machen sich nu auch nicht so stark bemerkbar.

Ich finde allgemein Grafikkarten, die mehr als ein schneller Prescott brauchen, zu stromhungrig. Egal von welchem Hersteller.

Aber egal, was die Konkurrenz tut, man kann es keinem Recht machen:

"Die haben ja keine Features. Da war der und der schneller."
"Die sind total einfallslos." "Die haben sich auf das Wesentliche konzentriert." "Die haben jetzt auch aufgeholt" "War ja nötig, dass die aufholen."

Statt "der" und "die" könnt ihr hier beliebige Namen (vorzugsweise ATI und NVidia) einsetzen! Dann merkt ihr vielleicht auch was! ;)

Bis denne!
 
Goldie die lächlichen paar Watt? 6800 Ultra 93 und X800 bisschen mehr als das dopellte das finde ich ist doch schon ein grosser Unterschied.
 
Ich weiß nicht, woher du die Angabe "doppelt" hast, finde nur Vergleiche, wo die X800 auf Niveau der 9800XT Strom verbrät. Und das sind eben auch nur 15-20W weniger als ne 6800 braucht. Beide brauchen aber sowohl im 2D- als auch im 3D-Betrieb deutlich über 100W. Und das finde ich in jeglicher Hinsicht zu viel.

Ich denke aber, dass hier sicher unabhängige Vergleiche realer (und nicht den Referenz-) Karten demnächst auftauchen. Dann wären auch endlich die ewig rumgeisternde "Staubsauger", "Bildqualität" "Cheaten" und "Treiber"-Vorurteile widerlegt. Wohlgemerkt unabhängig vom Hersteller!

Bis denne!
 
@Supi
Okay, dann weise ich nochmal auf meinen letzten Kommentar hin extra für dich. Mal sehen ob dir was auffällt. :bussi:
 
Zuletzt bearbeitet:
Donnerblitz7 schrieb:
Solche Aktionen verunsichern potentielle Käufer. Ich werde bei der nächsten Graka wohl zu ATI greifen. ;)

ohne worte... oder doch... ich kann nich anders... lässt du von sowas deine kaufentscheidung beeinflussen oder gar entscheiden??? klingt jedenfalls so...

PS: wenn dein post so witzig gemeint war wie ich reagiert habe darauf, dann bedanke ich mir für die wunderbare ironie!
 
schonwieder eine ati vs nvidia streitbühne aufgebaut :D.

als obs jemanden kümmern würde so lange die karte nicht draussen ist ...
zu dem von anderen usern aufgegriffenen thema: also mal ehrlich, mir ist der stromverbrauch sowas von egal. ich glaube auch nicht dass sie im ernst eine rolle für die soielt die sich hier so gegen den hohen verbrauch auslassen. und ob man da jetzt eine nvidia oder ati kauft ist wirklich wurst!

mfg
 
Also ich dachte ja eigentlich das nVidia es jetzt endlich schafft wieder ne vernünftige Karte herzustellen, vorallem weil ich auch nVidia Fan bin. Aber wer die Sache momentan nüchtern betrachtet der kauft einfach ATI und das werde auch ich machen.
 
nunja, intel vs amd...intel weiss nicht weiter und amd gewinnt an kunden...;)

Von der Technik her ist die ATI einfach nur scheisse....sagen alle zeitungen...entwickler werden sich die X800 auch nicht zum entwickeln einbauen, da es alter müll ist, PS2...Stalker benutzt schon PS3.... Also kann ATI ruhig weiter auf die alten games setzen, bin gespannt wie gut PS3 spiele drauf laufen..ach ne, ati bringt ja extra noch eine karte raus womit PS3 möglich ist..lOl
 
Was ist denn bitteschön daran lol?!

Sie werden aktuell eben nicht gebraucht und wenn die R500 rauskommt hat sie die Features impletiert und wird schon so Leuten wie dir zeigen das ATi nix flasch gemacht hat! :D
 
blabla bla immer dasselbe....PS2.0 oder PS 3.0 alles dasselbe machts nich schneller, nur bessere Quali...und wie ich das immer beobachte werden heutzutage die spiele sowieso 2-3 monate oder nen jahr verschoben , also kann ich mit gewissheit sagen das Stalker auch ende des Jahres erscheint und da hat ATI schon sein PS 3.0 :D aber ehrlich heutzutage brauch man kein PS 3.0 die ganzen Transistoren hätte man sich sparen solln, somal die nächste Grafikgeneration e schon in den startlöchern steckt
 
Zurück
Oben