News IDF: PCI Express 2.0: 300 Watt für Grafikkarten

ownagi schrieb:
ganz falsche richtung ....
genau um 180° drehen bitte

dem gibt's eigentlich nichts mehr hinzuzufügen, außer vielleicht noch: DIE SPINNEN DOCH!!!:freak:
 
@e-ding

der war gut....
 
Na da warte ich doch erstmal als noch AGP'ler ab bis was neues kommt, so konnte ich gleich eine ganze Generation überspringen und konnte trotzdem noch alles zocken und machen mit meinem System *NICE* War mir doch irgendwie klar das PCI-Express noch weiter überarbeitet wird!
 
dann kann ich im winter endlich ohne Heizung bei offenem fenster in shorts Oblivion spielen. :freaky:
 
Oh man ich fasse es einfach nicht. Diese Tatsache wird bei vielen für negative Schlagzeilen sorgen. Ich frage mich, was sich die Hersteller überhaupt dabei denken??
 
LOL na zum Glück hab ich noch meinen ISA-Beschleuniger mit Monochrom-Display behalten.. wusste doch das es sich lohnt zu warten :freak:
 
Ui 225 oder 300 Watt. Naja wenn die Grakas, die jetzt kommen werden, mehr als aktuelle High.End Grakas kosten werd ich mir keine mehr kaufen. Das ist einfach nur noch krank. Dann sollen die Hersteller mal auf 65 nm mit SOI oder High-K arbeiten und den Takt nicht so hoch schrauben. Und wenn man nicht mehr Leistung rausholen kann, dann müssen halt die Spieleentwickler aktuelle Hardware ausreizen und die Grafik bleibt nun so wie sie ist. Bei UT 2007, Anno 1701 oder Crysis reicht das doch schon dicke von der Quali ;) .
 
Papa Schlumpf schrieb:
Na da warte ich doch erstmal als noch AGP'ler ab bis was neues kommt, so konnte ich gleich eine ganze Generation überspringen und konnte trotzdem noch alles zocken und machen mit meinem System *NICE* War mir doch irgendwie klar das PCI-Express noch weiter überarbeitet wird!

genau so werde ich es als pciE'ler auch machen: den nächsten standard lasse ich einfach aus. hab leider keinen goldesel zuhause. :freak:

neue cpu braucht neues board, neue graka braucht neues board, neues board braucht neues nt atx2.2, neues board braucht neuen speicher, alte hdd ide gehen mit neuem board dann nicht mehr wegen fehlender controller, was schmeissen die kollegen entwickler uns noch alles in den weg beim aufrüsten?

baFh
 
Auch wenn ich nicht begeistert bin von den Überlegungen, einfach mal abwarten. Bei AGP und PCI gab's auch diverse Versionen, und die haben einigermaßen gut koexistiert... Ich gehe schon davon aus, dass der Steckplatz kompatibel zu heutigen Grafikkarten bleibt, gut, neue Grafikkarten werden dann auf alten Boards vielleicht nicht laufen, aber das ist sowieso relativ uninteressant... und selbst heute gibt's noch Karten für den "toten" AGP-Bus... also nicht immer gleich über alles aufregen (gut, das mit den >200 Watt für ne Grafikkarte möchte ich auch net fördern...)
 
Kann mich da dem allgemeinen Gedankegut nur anschliessen! Ich finde schon die heutigen Spezifikationen von 150Watt (mit zus. Stromkabel) Übertrieben.

Was mich nun aber irritiert, warum stockt man die Stromversorgung auf, wenn die übernächsten GPU Generationen gemäss ATI und nVidia stromsparender sein sollen? Habe da eine News auf WinFuture über ATI im Kopf, welche sich auf ein Interview mit ATI bezieht.
 
Wie ist das eigentlich mit diesen Extra-Stromsteckern? Haben das alle aktuellen Karten von ATi und nVidia, auch im mittleren Preissegment so bis 250 Euro? Oder nur die richtigen HighEnd-Monster?
 
kann mir das alles nicht vorstellen. Intel macht es doch allen vor: Neue Cpu's mit exorbitanter Leistung mit max gleicher Watt Verlustleistung. Warum dann nicht auch im Garfikbereich? Ich mein durch neue Techniken, bzw Infrasztrukturen in der Hardware muss man doch auch bei selber watt und sogar selber mhz werten Mehrleistung erzeugen können?

das kann nicht die lösung sein.
 
Allo


Naja was soll ich sagen, ich hab immernoch denn alten AGP Standart bei mir zuhause, nebenbei auch noch denn AMD Athlon XP 3200+.

Ich wollte eigentlich bald mal aufrüsten, aber ich hab jetzt schon kein Plan wann ich das realisieren soll, denn ich habe keine lust mir ne alte Generation zu kaufen... wann bitte soll ich aufrüsten, wenn das so weiter geht ?

.. schon krass 300 Watt .. mein Netzteil hat grad 550 Watt wird langsam eng. Aber vielleicht werden die Physikprozessoren endlich auf denn GPU direkt verbaut, könnte vielleicht deswegen sein ..

Wie auch immer ... ich hab kein Plan wann ich was kaufen soll ..
 
Na toll! Jetzt kriegt Intel mit ihrer neuen Desktop-CPU endlich einen halbwegs vernünftigen Stromverbrauch hin und jetzt denken die daran der Graka 300W bereit zu stellen. :rolleyes:
Der jetzige Standard mit 75W ist doch schon mehr als genug. Ich hoffe dass ATI und NVidia bei der nächsten GPU-Generation auch mal mehr auf Stromverbrauch achten.
 
LOL, selten so gelacht, 19) !!!! der witz ist echt gut!

schließe mich auch an, dass es SO nicht weitergehen kann! wo kommen wir da hin? 2kw pro pc? meine güte, das wird dann ne richtig teure rechnung... wer sich dann noch einen pc wird leisten können...

so long and greetr
 
Stimme den Vorrednern zu, das ist genau die falsche Richtung die da eingeschlagen wird. Man sollte versuchen den Stromverbrauch zu senken bzw. max beizubehalten um mehr Leistung aus den Chips zu kitzeln. Die sollen halt mal ihre Köpfe anstrengen :-)!
 
Zuletzt bearbeitet:
Hallo liebe Entwickler von Standards für PCI Express und GPUs, wie wäre es wenn mal darüber nach dedacht wird den Stromverbrauch zu senken. Bei CPUs gibt es einen neuen Trend "mehr POWER mit weniger verbrauch" ich Träume davon, dass dies auch auf andere Hardware übertragen wird insbesonders bei GPUs. Mir kommt es fast so vor als hätte die RWE ein stilles (Milliarden) abkommen mit den Entwicklern geschlossen :(
 

Ähnliche Themen

Zurück
Oben