Test GeForce GTX 470 im Test: Nvidias neue „Kleine“ ist besser als der große Bruder

@ antimon:

Es ist aber definitiv aus einem Interview mit nem hochrangigen AMD-Mitglied. Wenns hilft, kannst ja mich als Quelle angeben :D

sorry, hab das Interview schnell schnell verlinkt, bin aber nicht mehr dazugekommen, es auch zu lesen
 
KAOZNAKE schrieb:
Und 3D Vision ist Treibermäßig noch nicht aktiviert. (Falls du das mit 3 Monitoren meinst).
Und sobald 3D Vision aktiviert wird in den Treibern wird trotzdem keine Nvida Karte 3 Monitore ansteuern können ;)
3D Vision hat nichts damit zu tun - Nvidia GPUs können max. 2 Monitore ansteuern und das bleibt auch mit Fermi so.

DvP schrieb:
Computerbase ist an dieser krassen Vorgehensweise von nVidia übrigens wohl nicht interessiert. Habe schon mehrere Nachrichten verschickt mit diesem Link, aber ohne Antwort. Vielleicht will man es sich ja mit den Grünen nicht verscherzen :(
Darüber bin ich ehrlich gesagt auch froh, da die dort aufgestellten Behauptungen weder bestätigt sind noch sehr glaubwürdig beschrieben sind - mir ist das zu reißerisch und wirkt wie bashing. Gerüchte gab es ja schon längere Zeit doch deshalb muss man nicht jede Quelle ungefragt und unbestätigt akzeptieren.
 
Complication schrieb:
mir ist das zu reißerisch und wirkt wie bashing. Gerüchte gab es ja schon längere Zeit doch deshalb muss man nicht jede Quelle ungefragt und unbestätigt akzeptieren.

Ich spreche nicht von Semiaccurate sondern eben von dem Blog wo ein Admin von einem Onlineshop gepostet hat. Dies wurde auch per Email noch bestätigt, wobei die dann noch einen Großhändler gefunden haben, der ohne diesen Zwang verkaufen konnte ;-)
 
Raucherdackel schrieb:
@ antimon:

Es ist aber definitiv aus einem Interview mit nem hochrangigen AMD-Mitglied. Wenns hilft, kannst ja mich als Quelle angeben :D

sorry, hab das Interview schnell schnell verlinkt, bin aber nicht mehr dazugekommen, es auch zu lesen

Kein Thema, wenn ich´s wiederfind poste ich den Link, wenn nicht dann halt nicht. Ich weiß ja noch was ich gelesen hab, von daher stört´s mich auch nicht :D
 
Hallo zusammen,

@ Tek

So mein Guter, ich habe mir jetzt mal den Spaß gegönnt und Gothic 3 sowohl auf Desktoprechner welcher in meinem Profil aufgeführt ist, als auch auf meinem Notebook mit Gefroce G230M installiert und verglichen, beide mit Patch-Version 1.16, danach mit der Neuesten Version 1.70! Ich habe 43 Savegames probiert, die ich noch hatte.

Von PhysX nirgends eine Spur, tut mir leid! Das kannst vergessen. Möglich, daß es einen Schalter gibt, der diese Option aktiviert, allerdings ist nirgends ein solcher zu finden.

Dann habe ich nochmal die Packung studiert, nirgends eine Spur von PhysX. Mag sein, daß mehrere Webseiten dies behaupten, wenn dem doch so sein sollte, muß man diese Effekte aber regelrecht mit der Lupe suchen!

Übrigens, ich habe auch meine alte "Ini-Datei" benutzt und nochmal reingeschaut - Gothic 3 konnte man per "Ini-Einstellungen" extrem Optimieren -, da ist auch nirgends ein Wort von PhysX zu Sehen.

Es ist schon verwunderlich, daß behauptet wird, Gothic 3 würde PhysX unterstützen, merkwürdig stimmt mich aber, daß nirgends auf der Verpackung das PhysX Label zu finden ist, wobei Nvidia da normalerweise ja einen Heidenaufwand damit betreibt und besonders Gothic 3 damals eines der am meisten gehypten Games war.

@ casius

Ich hatte Gothic 3 damals für 39 Euro bekommen, das war aber trotzdem zu Teuer weil es wirklich verbugt war wie verrückt! Ich konnte es erst ab Version 1.16 zu Ende Spielen. Hinzu kam, daß es wirklich fürchterlich Ressourcen benötigt hatte. Gothic 3 ist und war für mich eines der am Ressourcenfressendsten Spiele überhaupt.

So long.....
 
Zuletzt bearbeitet:
Tjo - scheint geplant gewesen zu sein bevor Nvidia dann das ganze übernommen hatte ;)
Zum Interview Zeitpunkt wurde PhysX auf CPU geplant und nur mit Unterstützung für Ageia Karten:
PCGH: Wieso habt Ihr Euch bei der Physik-Engine für ein Lizenz-Produkt, die Novodex-Engine, entschieden, anstatt eine eigene Spielphysik zu programmieren? Was sind die Vorzüge der Engine, mal abgesehen davon, dass Sie über eine Unterstützung für Ageias PhysX-Karte verfügt?
Philipp Krause: Naja, eine eigene Physiksimulation zu schreiben ist ein sehr schwieriges Unterfangen, und sicherlich nicht mit dem Kostenaufwand zu vergleichen, den die Lizenz von Novodex erzeugt. Außerdem sehen wir in Novodex ein System, das stetig weiterentwickelt wird und performant und stabil funktioniert.

http://forum.jowood.com/showthread.php?t=156479
Gothic 3 dont uses any Physx (Nvidia or Ageia dont matter). It was planned, but it isnt used, so the files are in the directory, but the game dont use them.

Die Pläne das Programmierers wurde wohl nicht umgesetzt, wie man 2 Jahre nach dem Interview festgestellt hatte.
 
auch wenn mir immernoch unklar ist, was das spiel bei physx bieten soll habe ich mal meine gothic 3 version rausgekramt und tatsächlich steht "physx by ageia" drauf!
insofern stimmt wohl diese info...inwiefern diese zum einsatz kommen soll ist mir unklar...

das was ich gelesen habe besagt, das es was mit der bewegung zutun hat und mit manchen figuren..


edit:
@complication
AHHH jetzt macht die ganze geschichte endlich sinn.. hauptsache den mist draufschreiben ;)
im grunde also mal wieder fürn ar*** ^^
 
Hallo zusammen,

@ Tek

PCGH: Auf welche Details bei den Physik-Effekten müssen Spieler ohne PhysX-Karte verzichten?

Philipp Krause: Auf keine, da in Gothic 3 nicht mit exzessiven Physikorgien zu rechnen ist.


Also ernsthaft, das Interview ist völlig lächerlich, weit und breit ist da nichts von PhysX zu Sehen! Ich will mich ja nicht sonderlich Loben, aber ganz so Blind bin ich jetzt nicht und ich habe Gothic 3 echt von oben bis unten, von links nach Rechts durchgespielt, ich war echt überall. Da war nix von PhysX Effekten zu Sehen. Auch nicht jetzt im Vergleich der einzelnen Patch-Versionen, die ich extra Probiert hatte.

@ Complication

Vielen Dank für deinen Link, das erklärt ja nun wirklich meine Beobachtungen. Und die Mühe hätte ich mir echt Sparen können. Na ja, andererseits, ich werde mir wohl das Add-On kaufen, das kriegt man jetzt nachgeschmissen, bin durch das Rumprobieren nochmal auf den Geschmack gekommen, zumal die ein oder andere Mission erst mit Patch 1.70 zu absolvieren war bzw. ist.

So long...
 
Zuletzt bearbeitet:
Luxmanl525 schrieb:
Also ernsthaft, das Interview ist völlig lächerlich, weit und breit ist da nichts von PhysX zu Sehen! Ich will mich ja nicht sonderlich Loben, aber ganz so Blind bin ich jetzt nicht und ich habe Gothic 3 echt von oben bis unten, von links nach Rechts durchgespielt, ich war echt überall. Da war nix von PhysX Effekten zu Sehen.

Wenn irgendwas runter fällt, hast du auch schon Physik und die wird eben hier mit der PhysX Bibliothek realisiert, weil die Game Engine wohl keine Codes dafür hat. Muss ja nicht immer alles überdrüber sein, was man damit anfangen kann. Obwohls schon fast schade ist, dass man dann nicht mehr draus macht. Auch auf der CPU ist ne ganze Menge möglich. Wie viel gehen würde, haben wir wohl noch gar nicht gesehn.
 
@DvP lies mal Posting #471 ;)

Ich wusste ja schon lange, dass G3 ne Mogelpackung ist, aber das Topt es jetzt echt nochmal, auf der Verpackung steht drauf das PhysX genutzt wird und im JooWood-Forum geben sie dann zu, dass es der PhysX Support nie in die Software geschafft hat. :rolleyes:
 
Zuletzt bearbeitet:
Antimon schrieb:
Ich wusste ja schon lange, dass G3 ne Mogelpackung ist, aber das Topt es jetzt echt nochmal, auf der Verpackung steht drauf das PhysX genutzt wird und im JooWood-Forum geben sie dann zu, dass es der PhysX Support nie in die Software geschafft hat. :rolleyes:
Doch, es nutzt CPUPhysx, denn der Support für Die Physxkarten hat es nie ins Game geschafft.
 
Mensch Leute - denkt ihr wirklich man muss Physx irgendwie speziell sehen? mehr/bessere Effekte oder sowas? Ich hatte gehofft der Gothic4 Artikel würde ein wenig mehr Klarheit schaffen.

Wie DvP bzw JokerGermany schon sagten, Physik is da, die Frage ist nur unter welcher Engine. Da wir jedoch auf der offiziellen Havok Seite nichts von Gothic 3 lesen können und eine eigene Physik-Engine ein viel zu großer Aufwand wäre - ist es naheliegend, dass dafür die PhysX Bibliothek verwendet worden ist.
Es ist nunmal CPU Physx, da muss man einfach unterscheiden ;)
 
JokerGermany schrieb:
Doch, es nutzt CPUPhysx, denn der Support für Die Physxkarten hat es nie ins Game geschafft.

Dann konkretisiere ich meine Aussage auf das, wie weiter oben zu lesen ist, Aegia PhysX Support auf der Verpackung aber nicht im Spiel womit meine Aussage, dass es sich um eine Mogelpackung handelt nicht im geringsten beeinträchtigt wird.
 
Um mal zurück zum Thema zu kommen - Gibt es eigentlich irgendwo ein GTX 470 SLI setup zu sehen?
Würde mich wirklich interessieren wie schnell die beiden Karten laufen.
 
Gebe es in den entsprechenden Spielen, einen schalter für Physik auf CPU, wäre ich erleichtert und ich hätte die aktuellste ATI Karte in meinem Rechner.. doch dem ist nicht so

Ich weis nicht wie ich es euch begreiflich machen soll, aber ich bin nicht bereit, auf all die Features zu verzichten. Auch wenn es in Zukunft vielleicht nur noch einen Grafikhersteller geben sollte... ATI sollte hier schnell aufwachen und nachholen.
Jeder ATI Käufer kann ganz leicht PhysX nutzen in dem er einfach eine 2. alte gebrauchte NV Karte einbaut die sich dann um PhysX kümmert, bei den wenigen PhysX Titeln kann man die nachher dann wieder ausbauen. http://www.pcgameshardware.de/aid,7...orce-bis-zu-7-Mal-schneller/Grafikkarte/Test/

Wegen PhysX v. DX 11: https://www.computerbase.de/news/grafikkarten/was-passiert-mit-physx-wenn-dx11-opencl-da-sind.24074/



Die erste Serie der Karte wurde tatsächlich gleich mal ausverkauft
Jap die Vorbestellungen sind 4 mal höher als befürchtet, NV Fans sind also nicht vernünftig und boykottieren ein ineffizientes Produkt. http://ht4u.net/news/21964_schlecht...er_verfuegbarkeit_von_geforce_gtx_400_karten/


von PhysX nirgends eine Spur, tut mir leid! Das kannst vergessen. Möglich, daß es einen Schalter gibt, der diese Option aktiviert, allerdings ist nirgends ein solcher zu finden.
CPU PhysX, kleiner aber feiner Unterschied, alles was du in der Welt machst, also interagierst wird durch PhysX beeinflusst, zb. wenn tote Wölfe über die Klippe in die Tiefe rutschen -> CPU PhysX
 
Zuletzt bearbeitet:
Warum sollte ein möglicher Kunde eine GTX470 kaufen wenn er für 30€ mehr eine bessere HD5870 bekommen kann? In der Preisregion sind das kleine Unterschiede die schon bei verschiedenen Hersteller anfallen und somit eine Kaufentscheidung kaum beeinflussen.
Rational gibt es hier keinen Raum für die GTX470.
Diese müsste auf dem selben Preis Level sein wie die HD5850. Eventuell 20-30€ mehr. Dann wäre es von der Leistung her angemessen und auch eine mögliche Gefahr für die AMD Karte.
Wobei die Händler dann die HD5850 einfach 30-40€ billiger machen, dazu muss AMD selber nicht einmal die GPU Preise senken und schon hätte Nvidia wieder ein Absatzproblem.
Nvidia selber kann diese Preisspiele nicht mitmachen. Selbst jetzt verdient Nvidia nichts an den Karten. Der Verlust wird auf die Karte gerechnet sicher 10-20% Ausmachen. Fällt bei den Verfügbaren Karten aber kaum auf.

Es ist Schade wie so ein Unternehmen seine Zukunft mit solch miesen Produkten einfach weg wirft. Eine HD3870 und HD3850 hätte doch die Alarmglocken klingeln lassen müssen. Nach Außen hin kann das Unternehmen ja posaunen das AMD nichts brauchbares liefern wird in der Zukunft aber spätestens mit der HD4850/4870 und besonders den Unterkarten war Nvidia enorm Unterlegen was Fertigung, Qualität, Preis, Entwicklungszyklus anbelangt.

AMD hatte ATI so Umgebaut das es wie die CPU Sparte wirtschaftete. Kleiner, billiger, schneller und günstiger. Es waren ja nie nur Aufgüsse wie bei Nvidia. Jede GPU wurde verbessert, umgebaut und angepasst. Schon alleine bei den Chipsätzen kam Nvidia früh nicht mehr mit.

Nvidia hat einfach nicht wahr genommen das es nicht mehr gegen das kleine ATI geht. Es musste ab 2005 gegen ein völlig anderes Unternehmen in Konkurrenz gehen. Eines welches schon lange Erfahrung hat gegen einen fast Monopolist bestehen zu müssen. Eines welches daraus eine Tugend machte mit kleinen, günstigeren und nahezu Konkurrenzfähigen CPUs zu bestehen. Nur Nvidia ist nicht Intel. Intel hat eine Plattform. Nvidia? Ein Unternehmen welches wie ein Dinosaurier handelt und lebt stirbt halt aus oder es passt sich an.

Eines ist jedoch sicher. AMD hat seit der HD38xx mit jeder neuen Generation sich verbessert. Leistung, Energieaufnahme, Abwärme. Dazu kann AMD alle 15 Monate eine neue Generation auf den Markt werfen. Bald schon in mehr oder weniger seinen eigenen Werken die genau auf AMD Karten abgestimmt sein werden.
Synergien durch die CPU und IGP/Chipsatzsparte sind vorhanden.

Was soll da bitte Nvidia schicken können? Eine GTX470? Wenn es Intel wäre mit Milliarden an Gewinnen und mehr als 3 Entwicklerteams ja dann wäre solch ein P4 Desaster zu biegen mit einer neuen GPU. Nvidia hat aber weder das Geld noch die Teams dafür. Dazu kommen die Tegra Leute die ein Mehr an Aufmerksamkeit einfordern. Den der Markt wo der Tegra bestehen soll ist noch weit umkämpfter. Wenn das Unternehmen da dran bleiben will muss es da alles dran setzen. Grafikarten für den PC sind da schlicht hinderlich und kosten zu viele Ressourcen. Zumal die Zukunft hier einfach schrecklich ist. Bald keine IGPs mehr, Fusion steht vor der Tür, die OEM Karten aller unteren Klassen auf Monate hin in AMD Hand. Die Fertigungskosten liegen für mind. 12 weitere Monate wenn nicht gar 18 um 20 oder gar 35% über denen von AMD. Dazu kann AMD schneller Entwickeln und die Fertigungswerke sind ein enormes Problem. AMD hat GB Fabs und Nvidia? TSMC?


Da fällt mir ja zum Abschluß doch noch ein Grund ein eine GTX470/480 zu kaufen....
Für Sammler und Spekulanten...
Es werden die letzten Top Nvidia Karten sein... also Kaufen und sich freuen einer derer zu sein die solch eine Karte bekommen haben. Der Voodoo Kult lässt grüßen... :(
 
Zurück
Oben