Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Nvidia Synergy: Optimus für den Desktop zur Computex?
- Ersteller MichaG
- Erstellt am
- Zur News: Nvidia Synergy: Optimus für den Desktop zur Computex?
Wenn ich das richtig verstehe ist es ja wie bei Virtu. Also das die dedizierte GPU weiterläuft und weiterhin Krach macht und Strom verbraucht.
Dann macht das ganze keinen Sinn. (Bei Virtu ist der Stromverbrauch sogar höher)
Sobald sich die dGPU komplett abschaltet ist das richtig interessant, vorher nicht.
Dann macht das ganze keinen Sinn. (Bei Virtu ist der Stromverbrauch sogar höher)
Sobald sich die dGPU komplett abschaltet ist das richtig interessant, vorher nicht.
Complication
Banned
- Registriert
- Okt. 2009
- Beiträge
- 4.277
Was mich auch mal interessieren würde wäre die Bildqualität die ausgegeben wird wenn das "Transcode Simultanously" Feature zum tragen kommt-da sind ja Nvidia GPUs derzeit einiges hinter der Quicksync Qualität. Und heisst das dann, dass ebenfalls kein 23,976 fps möglich ist?
Aber grundsätzlich ist das sicherlich eine interessante Funktion - sozusagen Hybrid-Transcoding.
Aber grundsätzlich ist das sicherlich eine interessante Funktion - sozusagen Hybrid-Transcoding.
S
SB1888
Gast
Gegensatz zu letzterer Technologie soll Nvidias Lösung allerdings keine Lizenzierungskosten mit sich bringen und somit frei verfügbar sein. Jedoch sei Synergy nur mit Nvidia-Karten kompatibel, während Virtu auch mit AMDs Radeon-Karten funktioniert.
Wieder so eine geheimniskrämerei wie PhysX....
Also keine Zukunftslösung, kann man natürlich gut vermarkten, aber den Durchbruch schafft das so gewiss nicht
davon abgesehen haben wir dann wieder eine Treibersache, da nen Programm nicht angepasst und
schwupp das wars mit der überschwänglichen Performance.
DerTiger
Lt. Junior Grade
- Registriert
- Jan. 2006
- Beiträge
- 364
And.! schrieb:Wo bitte schön steht da "zu komplex"?
BTW: es wäre schön, wenn die Grafikkarte ihr gerendertes Bild über das Mainboard ausgeben könnte und selber keine Bildausgabeschnittstellen benötigen würde. Dann bräuchte man wirklich nur einen Monitor und könnte die dGPU auch ausschalten.
Ah... peinlich.
Lesen will gelernt sein.
Kommt davon wenn man auf arbeit die Artikel so nebenher überfliegt.
mea culpa.
L
Lorch
Gast
Na dann wird Optimus naechstes Jahr, nach dem ich es seit wenigen Wochen aufm NB geniesse, auch beim PC einzug finden, perfekt!
Passt mir sehr gut, der naechste Rechner wird eh wieder Intel/Nvidia (Ausser AMD bringt mal CPUs die was anderes als Spielen guet koennen...).
Passt mir sehr gut, der naechste Rechner wird eh wieder Intel/Nvidia (Ausser AMD bringt mal CPUs die was anderes als Spielen guet koennen...).
sven.ghostrider
Lieutenant
- Registriert
- Aug. 2009
- Beiträge
- 659
Also so neu ist das echt nicht, das ging vor ~ Jahren schon mit Nforce 780a und 9800GTX(+) und GTX280, hab ich auch schon benutzt
Monitor an die onboard und dann kann die große GPU im Idle ausgehen
Das wurde per Treiber aber abgestellt.
Bedarf es denn wirklich erst solcher Modewörter wie Optimus oder Synergy?
Schade dass es wieder nur ne Herstellerspezifische Lösung wird.
Monitor an die onboard und dann kann die große GPU im Idle ausgehen
Das wurde per Treiber aber abgestellt.
Bedarf es denn wirklich erst solcher Modewörter wie Optimus oder Synergy?
Schade dass es wieder nur ne Herstellerspezifische Lösung wird.
Kasmopaya schrieb:[...]
Sollte NV das wirklich durchziehen ist AMD unter Zugzwang, da hat man schon mal alles aus einer Hand und NV ist trotzdem schneller. Wer soll das noch verstehen?
Wums schrieb:Ich würd mal meinen das sie das erstmal nur mit Sandybridge bringen weils von AMD noch keine passende CPU gibt.
Planet3DNow hat folgendes heut als News gebracht:
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1303904490
Ob die dGPU auch komplett ausgeschaltet werden kann, ist aber nicht Thema der "geleakten" Folie.
Revolution
Commodore
- Registriert
- März 2008
- Beiträge
- 4.965
Klar weil Office System auch die mörder Grafikkarten drinnen haben ... Also das ist wirklich für viele Arten von Systemen interessant aber mit sicherheit nicht für Office Systeme .Auf das hab ich gewartet. Für Office Systeme sehr sehr interessant.
Ich freu mich wenn es kommt aber dann muss es aber wirklich so kommen das die Grafikkarte gänzlich abgeschaltet werden kann oder in nem Standby betrieb >5 Watt gehen kann.
bruteforce9860
Lt. Commander
- Registriert
- März 2009
- Beiträge
- 1.860
Momentan sind Grafikkarten im Idle doch schon recht sparsam, aber etwas geht immer, das ist so eine Technologie bei der man sich fragt, wieso die erst jetzt marktreif wird und nicht schon vor 5 Jahren
terraconz
Commodore
- Registriert
- Juni 2009
- Beiträge
- 4.946
DAASSI schrieb:naja bei AMD ist sowas wohl noch nich nötig sind ja keine THERMIs
Bei der Leistung werden sie das auch nie sein!
@Topic:
Logisch das Nvidia das nur mit Nvidia Karten zu lässt wäre ja auch selten dämlich von Nvidia da Kohle in die Entwicklung zu stecken und der Konkurrent bekommt es dann für lau. Ist das selbe warum Eyefinity oder Stream nur auf AMD Karten geht oder warum Quick Sync nur mit Intel CPU funktioniert. Ambilight von Philips gabs ja auch nur auf Philips TVs oder Samsungs Touch Wiz Launcher gibts nur auf Samsung Handys usw..............
Hardware_Junkie
Lt. Commander
- Registriert
- Jan. 2009
- Beiträge
- 1.617
Perfekt!
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
Es hat sogar 8800 GT gegeben mit dem Controller Chip, daher dann doch wieder umbenannt.
Aber die meisten 9800GTs hatten keinen Chip -> da einfach nur im Bios den Namen geflasht. Das ganze ging aber ziemlich in die Hose und war sehr selten anzutreffen, weils nur mit AMD CPUs ging. Und die waren damals extrem schlecht > Phenom I
Sogar die GTX 260 hatten den Chip nicht immer.(bei den 55nm Modellen wurde das dann weg rationalisiert)
Aber die meisten 9800GTs hatten keinen Chip -> da einfach nur im Bios den Namen geflasht. Das ganze ging aber ziemlich in die Hose und war sehr selten anzutreffen, weils nur mit AMD CPUs ging. Und die waren damals extrem schlecht > Phenom I
Sogar die GTX 260 hatten den Chip nicht immer.(bei den 55nm Modellen wurde das dann weg rationalisiert)
Für die Mainstream User bzw. Konsolen Überläufer oder was auch immer vielleicht, aber richtige Gamer die max. Details wollen, also so wie das Game eigentlich ausschauen sollte gibts die Leistung von GTX 580/680(DX 11) so schnell nicht in der CPU. Das gleiche hätte man schon vor Ewigkeiten sagen können, man braucht ja gar keine Grafikkarten mehr gibt ja schließlich onbaord GPUs. Diese Leistungsklasse hat es schon immer gegeben und wird es auch immer geben, aber zum vernünftigen zocken eher ungeeignet. Das einzige das die APUs verdrängen sind die kleinen Einsteiger Grafikkarten, aber auch für diese wird es noch sehr sehr lange Bedarf geben, man schaue sich mal nur AGP an, das dauert ewig bis die Nachfrage auf 0 gesunken ist.ist auch mein gedanke. allerdings sehe ich darin ein absolutes nieschenprodukt, denn in 1 oder 2 jahren werden 99% der pcs mit einer apu keine zusätzliche grafikkarte mehr benötigen.
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 103
- Aufrufe
- 18.909
- Antworten
- 2
- Aufrufe
- 2.833