News Erster Test der Nvidia GeForce GTX 680

y33H@ schrieb:
Auslesefehler. Davon ab heißt es PhysX und nicht PsyiX ;-)

Thx, habs geändert. Habs direkt von dem Screenshot, ohne Lesebrille, übernommen.

Das es sich hierbei auch um einen Fehler handeln könnte habe ich hier schon erwähnt:

Schaby schrieb:
Ich habe gerade noch was interessantes entdeckt. Auf dem Screenshot von GPU-Z ist kein Haken bei PhysX. Demanch würde die GTX 680 kein PhysX unterstützen.

Da kann man nur hoffen, dass der Test kein Fake ist und dass GPU-Z die Werte richtig ausgelesen hat.

Das würde dann bedeuten, dass es keine klassischen Nvidia PhysX Spiele mehr geben wird... Halleluja

Dennoch halte ich es für möglich. Denn GPU-Z liest ja die anderen Daten auch richtig aus. Naja, ich würde mich riesig freuen, wenn dass stimmen würde.
 
Zuletzt bearbeitet:
Wieso sollten sie auch kein PhysX unterstützen? Ist ja schließlich ne Software und keine Hardwarefunktion.
 
Kriegsgeier schrieb:
Richtig, nur noch 4 Gb und 400€ dann bin ich glücklich ;)

ausser dass die allermeisten spiele heute noch immer mit 512mb auskommen, es sei dann man lädt sich einen high res texture mod runter und/oder spielt in auflösungen über 1920 (wo wiederum bei den aktuellen karten die framerates eh nicht mehr reichen)

ram grösse ist bei grafikkarten so gut wie nie flaschenhals, mehr als 1gb braucht keiner. computerbase hat dazu schon tests gemacht, aber sie sollten glaub ich wieder mal einen test rausbringen der aktuelle karten und spiele benützt - der aufklärungsbedarf zu dem thema ist noch immer riesig
 
stoneeh schrieb:
ram grösse ist bei grafikkarten so gut wie nie flaschenhals, mehr als 1gb braucht keiner

Uiuiuiui....dass so pauschal zu sagen? Ich weiß ja nicht. Bei Konsolenspiele langen 1GB dicke, aber bei allem was auch nur etwas GPU Performance braucht langt 1GB weit nicht, wie da wären Crysis, BF3, Metro2033...
1GB ist schon das untere minimum. Weiß ja nicht was du so spielst.
 
r4yn3 schrieb:
Wieso sollten sie auch kein PhysX unterstützen? Ist ja schließlich ne Software und keine Hardwarefunktion.

Hm, obs nun Soft- oder Hardware ist, kann ich nicht genau sagen. Trotzdem sollte jeder wissen, was Nvidia PhysiX ist und dass ist ganz klar an der Hardware gekoppelt, denn AMD Karten können das nicht.
 
stoneeh schrieb:
ausser dass die allermeisten spiele heute noch immer mit 512mb auskommen, es sei dann man lädt sich einen high res texture mod runter und/oder spielt in auflösungen über 1920 (wo wiederum bei den aktuellen karten die framerates eh nicht mehr reichen)

Also ich spiele oft Games auf 1920x1200 mit HD Texture Packs und aktiviertem 4xAA oder 8xAA...da komme ich schon mal auf 1,2GB VRAM...daher finde ich 2 GB VRAM schon eine gute Sache...da der Grafikkarten-Speicher aber ziemlich teuer ist macht es in der Tat Sinn zu analysieren was wirklich im Schnitt benötigt wird, damit die Karten nicht ohne wirklichen Mehrwert unnötig teuer werden...4 GB bräuchte ich jetzt auch nicht.

Schaby schrieb:
Dennoch halte ich es für möglich. Denn GPU-Z liest ja die anderen Daten auch richtig aus. Naja, ich würde mich riesig freuen, wenn dass stimmen würde.

Warum sollte nVidia auf PhysX verzichten ? Das ist doch ein Alleinstellungsmerkmal...und ich habe in letzter Zeit von keinem offenen Standard gehört dem man sich stattdessen anschließen könnte. Das ist mit ziemlicher Sicherheit ein Auslesefehler, weil notwendige Bibliotheken noch nicht angepasst sind.
 
Zuletzt bearbeitet:
Wenn man wollte könnte auch AMD PhysX, dass hat andere Gründe, das Thema hat aber hier nichts zu suchen.
 
Schaby schrieb:
Dennoch halte ich es für möglich. Denn GPU-Z liest ja die anderen Daten auch richtig aus. Naja, ich würde mich riesig freuen, wenn dass stimmen würde.
GPU-Z liest vieles aus einer Datenbank aus und nicht on the fly. Sprich wenn die aktuelle public Version GK104 nicht kennt, zeigt GPU-Z fei auch manche Dinge falsch oder gar nicht erst an.
 
Zumindest sollte es diesmal nicht mehr am Featureset scheitern, dass alleinstellungsmerkmal mit Eyefinity bei AMD ist wohl dahin ^^
 
PhysX wird die Karte aufjedenfall haben.

Nur mal vom logischen Menschenverstand, diese Funktion kostet keinen Transistor, kostet niemals Performance, kann teilweise aber ein gutes Stück Performance beitragen.
Es muss sich hierbei eindeutig um einen Auslesefehler handeln!
 
A ja...vom logischen Menschenverstand hast du wohl noch nie mit PhysX gespielt? Deutlich mehr Details darstellen ohne Leistungsverlust? Mhm...
 
Was hat das BIOS oder das Mainboard damit zu tun? Nichts.
 
Schaby schrieb:
...Naja, ich würde mich riesig freuen, wenn dass stimmen würde...
Du würdest Dich "riesig freuen" wenn der Kepler kein Physx unterstützen würde?

Muss man das verstehen, oder verbirgt sich da hinter Fanboy-basierte Neiderei?

Natürlich unterstützt der Kepler auch Physx, wäre ja wohl auch albern wenn nicht:

http://www.gamephys.com/tag/kepler-physx/

Nur beim Kepler wurde dieser Part überarbeitet, und daher erkennt es GPU-Z wohl noch nicht.

Aber daraus wilde Spekulationen herzuleiten, dass der Kepler das angeblich nicht könnte (wg. einem 3d-Party-Tool :rolleyes:), ist ja nun wirklich albern.
 
r4yn3 schrieb:
Deutlich mehr Details darstellen ohne Leistungsverlust? Mhm...

Das hab ich mit keinem Wort behauptet, was andere Leute einem wieder in den Mund legen ...
 
ExcaliburCasi schrieb:
kann teilweise aber ein gutes Stück Performance beitragen.

ExcaliburCasi schrieb:
Das hab ich mit keinem Wort behauptet, was andere Leute einem wieder in den Mund legen ...

Wie sollte es auch sonst zu verstehen sein?
 
Oh man, schon wieder ein paar Bremsen...

Warum das verschwinden von Physx gut wäre?
Weil dann NVIDIA mit ihrem proprietären Blödsinn aufhören würde der bis heute Physik als Spielmechanik verhindert. Dann müsste NVIDIA nämlich eine öffentliche und lizenzfreie Lösung nutzen wie AMD das tut(bulletphysics or what ever).

Selbst wenn sich NVIDIA und AMD zusammensetzen und eine komplett neue Lösung entwickeln, es würden alle Entwickler plötzlich alle neuen PC-Spiele und alle Spiele die schonmal für Next-Gen Konsolen entwickelt werden Physik als spielentscheidendes Instrument hinzufügen.
Weil kein Entwickler baut Physx UND eine andere Physiksimulation zugleich ein. Viel zu teuer und gar nicht umsetzbar.

Warum AMD Physx nicht nutzt sollte wohl auch den meißten einleuchten. Man müsste dafür zahlen, wäre immer das fünfte Rad am Wagen und von NVIDIA abhängig die Physx nach ihrem Gusto ändern könnten. Es gibt kaum Worte die beschreiben wie dämlich das von AMD wäre.
 
xrayde schrieb:
Du würdest Dich "riesig freuen" wenn der Kepler kein Physx unterstützen würde?

Muss man das verstehen, oder verbirgt sich da hinter Fanboy-basierte Neiderei?

Natürlich unterstützt der Kepler auch Physx, wäre ja wohl auch albern wenn nicht:

http://www.gamephys.com/tag/kepler-physx/

Nur beim Kepler wurde dieser Part überarbeitet, und daher erkennt es GPU-Z wohl noch nicht.

Aber daraus wilde Spekulationen herzuleiten, dass der Kepler das angeblich nicht könnte (wg. einem 3d-Party-Tool :rolleyes:), ist ja nun wirklich albern.

Naja, dass was ich bisher von PhysX gelesen habe ist es nicht notwendig, dass über die Graka berechnen zu lassen. Hier 2 Links zu dem Thema, die ich auf der schnelle gefunden habe:
http://www.tomshardware.de/PhysX-CPU-ausgebremst,news-244372.html
http://extreme.pcgameshardware.de/u...ichtlich-die-physx-performance-fuer-cpus.html

Das "freuen" bezieht sich nicht auf die Graka oder generell auf PhysiX, sondern darauf, dass es dann in Zukunft keine Nvidia-PhysX-Graka Spiele mehr gibt.

Dennoch kann es gut sein, dass man das Feature rausgenommen hat. Denn PhysX kostet Performance (siehe Mafia2 + PhysX). Deswegen wäre es, meines erachtens, eigendlich ein guter Schachzug, die PhysX Berechnung der CPU zu überlassen.

Und den Weg den Nvidia mit dem Chip eingegangen ist, finde ich super. Statt immer, größer, heißer, lauter und Stromhungriger, macht man es mit dem Chip genau entgegen gesetzt.
 
Zuletzt bearbeitet:
Zurück
Oben