Test Test: Nvidia GeForce GTX 470

Schinzie schrieb:
nur mit dem dezenten unterschied, dass deine sogenannte spielphysik keine spielphysik ist, sondern nur Effekte, die das Spiel selber nicht beienflussen (wie zum beispiel umfallende bäume, oder phyiskalische kistenbewegungen, projektilbewegungen). PhysX berechnet nur Effekte, macht sie schöner, das wars.

Keine Schmiede kann ein spiel rausbringen, dass auf einer Nvidia karte von der Spielmechanik (womit die spielphysik zusammenhängt) anders zu spielen ist, als auf einer AMD karte.


gruß

Die Hintergründe haben mich eigentlich nicht zu interessieren. Fakt ist für mich, dass ich mit den derzeitigen Physx Titeln sehr zufrieden bin und das kann mir ATI derzeit nicht liefern,
Und Effeckte die schöner wirken, tragen für mich zum Spieleerlebnis bei. Da gibt es für mich nicht "das wars" sondern " cool, mehr davon bitte".
Ergänzung ()

nospherato schrieb:
das ding ist halt:
für physx hol ich mir nicht für einen aufpreis von 100e+ einen föhn nach hause...
physx beinhaltet nur ein paar wenige spiele und halt benchmarks (gähn^^)...
ansonsten sehen wir havok und bald dx11 hier im einsatz...
wir sollten nicht vergessen, nvidia und ati ist ja schön und gut... aber intel gibts hier auch noch und die sind sicher nicht begeistert von physx;)

Du sollst ja nicht den aktuelen Staubsauger kaufen ;-)
Frag dich was du willst. Ein Spiel mit mehr Effecten oder ohne diese netten Goodies. Willst du die Goodies, klebst du halt derzeit an Nvidia fest.

Und du musst dir für Physx keinen aktuellen Turbolader in deinen Rechner einbauen, die letzte Generation tut es auch noch,, günstiger, leiser und stromsparender.
 
Tja da sieht man wer seine Hausaufgaben gründlich gemacht hat. Der Punkt geht klar an ATI:king:

Da nützt es auch nichts wenn man Monate vorher großartig das Superding ankündigt mit 3 Mrd. Transitoren aber im endeffekt dabei nichts herraus kommt und viele der bisherigen Nvidia Grafikkartenbesitzer entäuscht wie man im Test vom CB lesen kann.

Mfg mellon
 
Wir werden hier eh auf keinen Nenner kommen. Zu verschieden sind unsere Einstellungen anscheinend. Aber hoffentlich sind meine Standpunkte wenigstens ein bischen ersichtlich.
 
du hast da schon recht, was die effekte angeht.. die sind sicherlich schön.
mir ist leistung etwas wichtiger und das komplettpacket gefällt mir (ist ja jedem sein ding) momentan einfach besser.
und ehrlichgesagt: gereizt hat mich bisher keines der spiele, welche physx effekte nutzen...
(ja gesehen hab ich videos usw.)
außnahme hier waren gothic3 und mass effect 1.. wobei ich mich frage was da großartig mit physx gemacht werden muss was nich auch havok lösen könnte^^..
bei ut ist es ja so, das es nur 1 mappack war, falls ichs richtig in erinnerung habe...

offtopic:
ehrlichgesagt hätte ich lieber mehr programme, welche die gpu mitbenutzen, als spiele... denn beim schneiden von filmen usw., seh ich für mich persönlich mehr nutzen als bei den paar spielen. (ja ich weis, es werden hier auch immer mehr die cuda oder stream nutzen;) )
 
Hallo zusammen,

@ Casius

Du sprichst wirklich so, wie wenn an PhysX nun jedwedes Verkaufs- bzw. Kaufargument hängt. Oder anders ausgedrückt, wie wenn PhysX für Spieler übermäßig wichtig wäre.

Das ist es definitiv nicht. Dazu muß man nur mal den Zeitraum betrachten, seit es PhysX gibt und dann halte man mal die für PhysX optimierten Spiele dagegen.

Für mich ist das einfach nur Lächerlich. Ich selbst habe meine Karten immer nach dem jeweils besten Preis/Leistungsverhältnis gekauft. Vor meiner jetzigen im Profil aufgeführten Karte - gekauft im Mai 2007 für 288 Euro da die Radeon 2900 XT eine Enttäuschung war - hatte ich mehrere ATI Karten, eine Radeon 800XT, eine Radeon 9800XT, davor eine Radeon 9500 und hiervor eine Geforce 3.

Bei keinem meiner Käufe hat PhysX auch nur im Entferntesten eine Rolle gespielt als Argument, schon gar nicht bei der Geforce 8800 GTS 640.

@ nospherato

Ich bin jetzt gerade etwas irritiert, Gothic 3 hast du als Spiel aufgeführt, welches PhysX untersützen soll bzw. sollte, als ich habe das Spiel durchgespielt und habe von PhysX weit und breit nichts gesehen und zwar mit der in meinem Profil aufgeführten Karte, ich lasse mich gerne eines besseren belehren, aber meines Wissens nach hat Gothic 3 kein PhysX unterstützt.

So long....
 
Zuletzt bearbeitet:
@luxman
da bist du nicht allein... ich war ebenfalls verwirrt als ich die liste gesehen habe, da ich auch nichts davon gewusst habe, dass gothic 3 physx haben soll...
ich bin nach dieser liste gegangen:
http://de.nzone.com/object/nzone_physxgames_home_de.html
ich dachte mir "okay, evtl. wurde hier etwas nachgepatcht"... kann natürlich sein, das die liste auch komplett für die tonne ist;)

es fehlt ja z.b. auch mirrors edge in der liste, dass meines wissens nach sehr viel von physx hatte und batman ist ebenfalls nicht drin..
 
Für mich ging es bisher auch immer nur um Leistung. Ist die Ati schneller und günstiger, bau ich die halt in meinem Rechner ein.

Nur sind jetzt mehr Faktoren hinzu gekommen und jeder muss für sich abwägen, ob er das braucht oder nicht.

Ich für meinen Teil, habe gerne alle Features und wenn ich mir ein Top Aktuelles Game kaufe das Physx unterstützt bin ich froh mich für die richtige Grafikkarte entschieden zu haben. Dem einen sind die Effeckte nicht so wichtig, für den anderen schon und ich will nicht mehr darauf verzichten, wenn ein Spiel das als Goodie bietet.

Diese klein geredeten Effeckte tragen zur Spieleatmosphäre nunmal bei. Es ist halt leider so, zumindest für mich.

Aber genug geredet, meine Frau kommt gleich aus ihren Bayern/Franken Urlaub und bringt die Schwiegermutter mit. Von daher muss ich die Wohnung ein bisken aufräumen. Ja und das ohne PhysX und Nvidia, ich wünsche euch noch einen schönen Tag ;-)
Ergänzung ()

Ach übrigens.
Der Jahreshit, auf den ich schon länger eigentlich warte ist Mafia2 und soll vollkommen Physx unterstützen. Da bin ich schonmal froh, dass ich aufs richtige Pferd gesetzt habe.
Ok, ich hör ja schon auf,, bis bald-
 
HFkami schrieb:
3D Vision wird natürlich wieder tot geschweigt geschweige denn kriegt ein eigenen Test und SLI Test fehlt auch gänzlich. Danke CB das ich wiedermal mal mein Geld verschwenden kann und selber sehen muss was für mich funktioniert.

Ähh hallo? Da ist NVIDIA ganz einfach selber schuld wenn sie CB nicht genug Karten zum Test zukommen lassen. Selbst die 470 hat ewig gebraucht. Und 3D Vision ist Treibermäßig noch nicht aktiviert. (Falls du das mit 3 Monitoren meinst). Die 3D Brille zu testen ist ja auch bissl sinnfrei. :rolleyes:

casius schrieb:
Gerade in Batman konnte man prima sehen, wie bei den Endbossen die Gegenstände nur so umherflogen. Also soviele Elemente auf einmal in einer Scene und das noch flüssig, [usw.] Das Feeling ist aufjedenfall besser da.

Die meisten Games, auch Crysis, versuchen mit Schein Spielephysik lebendig darzustellen. Mit Physx bekommt man einfach ein Gefühl, dass alles stimmt.

1. wär das kein Problem gewesen, das auf CPU-Physx zum laufen zu bringen. (oder irgendwie anders)
2. wärs nicht notwendig gewesen, den Nebel (beispielsweise) komplett auf ATI zu deaktivieren
3. haben wir bei Crysis keine "Schein"-Physik. Ist eher umgekehrt. Physx ist nur Schein.

Dazu hab ich hier einen schon *etwas* älteren Artikel, der die Thematik gut rüberbringt.

"The Nvidia technology is aimed at graphics effects, like particles, cloth, water, and other second-order visual phenomena that don't affect gameplay." (usw.)

Da stehst du ja anscheinend so drauf. Also möglichst viel "Bling Bling"

"However, the GPU does not feed very much data back to the CPU as a result of its physics calculations, which means that nothing that the GPU produces in the way of physics simulation can really affect gameplay." (usw)

Während du (und leider viele andere) also käufliche Spieleentwickler und einen unmoralischen Grafikkartenhersteller unterstützt, um möglichst viel "Bling Bling" zu sehen, bleiben wir aufm PC
1. in der Entwicklung ECHTER Physik stecken
2. wird der PC-Markt weiter gespalten und in der freien Entwicklung behindert was
3. dazu führt, dass der PC als Spieleplattform immer weiter abbaut.

Für mich hat sowas ne klare Konsequenz: Das Spiel wird nicht gekauft und der nicht näher genannte Graka-Hersteller boykottiert. Ganz einfach. Wenn das jeder machen würde, bräuchte man die Diskussion gar nicht erst führen ;)

Nur meine zwei €uros...

casius schrieb:
Der Jahreshit, auf den ich schon länger eigentlich warte ist Mafia2 und soll vollkommen Physx unterstützen. Da bin ich schonmal froh, dass ich aufs richtige Pferd gesetzt habe.

Dann hoff ich mal für dich, dass das Pferd nicht wieder stolpert und der Support wie so oft bei NVIDIA in der Vergangenheit radikal eingestellt wird, sobald sichs nicht mehr lohnt...
 
Zuletzt bearbeitet:
Hallo zusammen,

@ nospherato

Also ich kann dir ganz sicher Sagen, daß Gothic 3 zumindest bis zum Entwickler bzw. Fan-Patch 1.16 kein PhysX unterstützt hat! Denn mit dem erst konnte ich Gothic 3 ganz durchspielen.

Ich war auch eben mal auf der Seite, die da verlinkt ist bei Nvidia, welche auf die Seite von Jowood führt. Also da ist von A bis Z kein Wort von PhysX, was auch komisch ist, der Verpackungstitel - erscheint wenn du bei der NV-Page auf Gothic 3 klickst - den habe ich so niemals im Handel gesehen, Gothic 3 hatte ganz andere Verpackungen.

Ich glaube, daß da was nicht stimmt. Die Liste ist mir nicht geheuer bzw. die halte ich für mehr als fragwürdig.

@ casius

Warum "Aufhören"? Man kann sich doch anständig und gepflegt austauschen, solange der Meinungsaustausch nicht Persönlich wird. Und ich empfinde den Austausch mit dir als Sehr gut und erfrischend, zumal du nicht gleich eingeschnappt und verbohrt bist, wenn man anderer Meinung ist.

Eine andere Meinung zu haben, ist kein Verbrechen. Jedem das seine.

So long....
 
hm also ich habe damals glaube ich den fanpatch nicht drauf gehabt und habe das spiel trotzdem durchgespielt...
habe mich damals auch sehr gewundert, dass soviele leute beschwerden wegen XX bugs usw. hatten und ich nichts davon gemerkt habe (abgesehen von geruckel^^)..
entweder ich hatte glück oder ich kann es mir auch nicht erklären.

das mit der packung ist mir auch aufgefallen... ich meine, dass meine ebenfalls anders aussah.
 
Luxmanl525 schrieb:
Hallo zusammen,

@ Casius

Du sprichst wirklich so, wie wenn an PhysX nun jedwedes Verkaufs- bzw. Kaufargument hängt. Oder anders ausgedrückt, wie wenn PhysX für Spieler übermäßig wichtig wäre.

Also, für Casius scheint es ja auch zuzutreffen. Für ihn ist es ein entscheidendes Kaufargument und das ist doch wohl kaum verwerflich!?

Zudem sagt er nicht pauschal, dass PhysX für alle Spieler übermäßig wichtig sei, sondern nur, dass er es für sich als wichtig empfindet. Auch das ist doch kaum verwerflich!?

Wo ist also das Problem? Warum versucht man ihn hier davon abzubringen? Er hat mit seinen Ausführungen doch völlig recht. Für ihn ist PhysX wichtig und er möchte es ohne wenn und aber nutzen und das ist eben (leider) nur mit nVidia möglich. Dabei spielt es keine rolle, ob es auch mit der CPU möglich wäre, was es aber nun mal nicht ist.

Auch ich muss zugeben, dass ich bei den erhältlichen Spielen nicht auf die PhysX-Effekte verzichten möchte. Auch ein Grund, warum ich bis zur offiziellen Vorstellung des Fermis gewartet habe. (Eigentlich hatte ich mir schon eine HD5er bestellt, doch nach 2 Monaten noch immer nichts erhalten und daher die Bestellung, kurz vor dem Fermi-Start wieder storniert.) Momentan überlege ich, ob ich mir nun doch eine HD5850 zulege und meine aktuelle GTX260 mit ein paar Basteleien als PhysX-Karte nutze oder ob ich nicht gleich zur GTX470 greife. Da hätte ich dann beides in einer Karte, was den Stromhunger wieder relativiert, wobei mir das auch noch relativ egal ist, genau so wie die Lautstärke oder die Wärmeentwicklung.

Auf den Test der GTX470 habe ich noch gewartet. Bevor ich mich entscheide, wollte ich mir auf jeden Fall noch diesen Test hier anschauen, doch leider wurde meine Entscheidung noch immer nicht erleichtert.

KAOZNAKE schrieb:
1. wär das kein Problem gewesen, das auf CPU-Physx zum laufen zu bringen. (oder irgendwie anders)
2. wärs nicht notwendig gewesen, den Nebel (beispielsweise) komplett auf ATI zu deaktivieren
1. Stimmt, ist aber leider trotzdem nicht der Fall
2. Stimmt, leider wurde er aber deaktiviert

KAOZNAKE schrieb:
Da stehst du ja anscheinend so drauf. Also möglichst viel "Bling Bling"
Was PhysX betrifft, ja auf dieses „Bling Bling“ stehe ich und Casius anscheinend auch. Das ist doch wohl nichts Verwerfliches oder willst du uns das etwa unterstellen? Ich denke doch nicht!

KAOZNAKE schrieb:
1. in der Entwicklung ECHTER Physik stecken
2. wird der PC-Markt weiter gespalten und in der freien Entwicklung behindert was
3. dazu führt, dass der PC als Spieleplattform immer weiter abbaut.
1. sehe ich anders, denn schließlich gibt es ja auch noch Havok, etc. die eben die Entwicklung auch weiter vorantreiben. Da bleibt nichts stehen.
2. Gespalten ja, aber wie gesagt nicht in der freien Entwicklung behindert. Im Gegenteil, sie könnte sogar angekurbelt werden, weil man jetzt versucht, nVidia mit anderen, besseren Physik-Implementierungen/Engines ins Leere laufen zu lassen, was auch den Entwicklern zu Gute kommt und die aktuelle Spaltung wieder zu einem Gesamtkonzept werden könnte.
3. was wiederum dann dazu führt, dass dein dritter Punkt hinfällig werden könnte.

Wie immer, so auch hier, gibt es zwei mögliche Seiten, über die man spekulieren könnte, das möchte ich aber gar nicht. Ich kenne die Vor- und Nachteile und nur ich entscheide, welche für mich relevant sind oder auch nicht. Daher verabschiede ich mich auch direkt wieder. Das waren lediglich mal kurz meine Gedanken und Anmerkungen von denen ich gar nicht verlange, dass andere sie nachvollziehen oder gutheißen müssen.

Gruß
Aven
 
Hallo zusammen,

@ AvenDexx

Ich glaube, du hast da das ein oder andere mißverstanden. Keinesfalls wollte ich Sagen oder habe ich gar ausgedrückt, daß an der Gewichtung von @ casius hinsichtlich PhysX etwas verwerflich ist. Keine Ahnung wie du überhaupt darauf kommst.

So wie @ Casius habe ich meine Sicht der Dinge wiedergegeben, nicht mehr als auch nicht weniger und ich habe extra darauf hingewiesen, daß er meine Zeilen nicht Persönlich nehmen soll, was er auch nicht hat. Hat für mich aber ein bißchen den Anschein anhand deiner Silben, daß du dich Persönlich getroffen fühlst.

@ nospherato

Also ich bin am Ende in der Schlußstadt hängen geblieben ohne Patch bei Gothic 3, mußte sogar extra auf diesen Patch warten. Du mußt auch bedenken, daß man Gothic 3 auf mehrerlei Arten durchspielen konnte und ich habe echt alles abgegrast was es gab.

Leider kann ich dir nicht mehr dediziert Sagen, welcher Bug es genau war, aber ich habe etwas abgegeben, plötzlich ist die ganze Meute auf mich los, obwohl es aufgrund der erfülten Aufgabe nicht sein durfte, mit dem besagten Patch wurde dies behoben.

Je mehr ich überlege, desto mehr bestreite ich, daß Gothic 3 PhysX unterstützt hat bzw. unterstützt. Mal ernsthaft, Gothic 3 war auch so schon ein unglaublicher Resourcenfresser, gar nicht auszudenken, was da erst mit PhysX wäre!

Moment mal, ich habe Gothic 3 ja noch im Regal stehen! Hatte es ja behalten, wegen der Fan-Patches, ich habe eben nachgeschaut, also auf der Packung steht gar nix von PhysX. Und ich wüßte jetzt nicht, daß das nachgeliefert wurde. Auf der Fan-Patchseite steht auch nichts. Ernsthaft, diese Liste von NV ist in meinen Augen ziemlich Obskur, die Packung ist auch völlig anders.

So long....
 
bei all der diskussion wirds zeit, wieder auf die simplen fakten zurückzukehren.

Fakt 1. GTX 4X ist schneller als 5X (single) wie angekündigt!

Fakt 2. Sie ist kein "ATI Killer" wie erhofft/befürchtet. Sie reiht sich preislich da ein wo Sie gar nicht stören kann.

Fakt 3. GTX 4X ist keine Wunderkarte. Es ist eine Grafikkarte die "normaler" Evolution folgt.

Fakt 4. Weder Nvidia noch ATI haben derzeit die Oberhand. Sie laufen derzeit Arm in Arm nebenher. Die Karten überschneiden sich nichtmal allzusehr, da Sie alle genug Eigenheiten haben, um verschiedene Käufer anzusprechen (z.B. Physx, Eyefinity blabla).

Fakt 5. Alles bleibt beim Alten inkl. diskussionen in Foren etc.

Die Runde ist diesmal mehr als eindeutig unentschieden! Vielleicht leichter vorteil für ATI wegen dem früheren Launch und Widerherstellung des guten Rufes, dass bei der 2X Reihe verlorenging.
 
@Luxmanl525:

Nein, fühle ich mich nicht, nur empfand ich deinen Satz als Entstellung der von Casius geposteten Beiträge. Während Casius mehr als nur einmal deutlich gemacht hat, dass es nur ihn betrifft, beziehst du es in dem Satz auf alle Spieler. Dies könnte man m.M.n. durchaus als latente Unterstellung bezeichnen.

Wenn er klar macht, dass er nur von sich spricht, warum kommst du dann mit einem Kommentar, bei dem alle Spieler herangezogen werden?
 
Zuletzt bearbeitet:
Mmmm schon wieder Physx als Thema und kaum jemand hat Ahnung davon.

1.) Physx ist neben Havok die Engine die am meisten verwendet wird - es muss halt nicht immer auf der GPU laufen wie in den bekannten Spielen über die sich ATI Jungs so aufregen.
http://physxinfo.com/articles/?page_id=154

Hier eine aktuelle Liste:
http://physxinfo.com/

2.) Physx wird niemals aussterben so lange Nvidia es finanziell unterstützt. Es ist völlig egal ob DX11 oder DX15 draußen ist, Physx wird weiterhin koexistieren.

3.) Physx unterstützt Multi-Core CPUs - es hängt von den Entwicklern ab wie sie Physx nuzen.
http://physxinfo.com/news/2185/physx-running-on-16-cpu-cores-in-fluidmark/
http://www.geeks3d.com/20100216/preview-multi-core-cpu-support-in-physx-seems-to-work/
http://physxinfo.com/news/2390/new-physx-fluidmark-1-2-first-tests/

Es ist natürlich logisch, dass man Physx auch auf CPU laufen lassen kann jedoch was einige hier von sich geben ist mal wieder echt kurz gedacht. Nehmen wir an es wäre möglich 100000 Partikel gleichzeitig auf einer CPU darzustellen + Game-Engine (was ich nicht denke, da die CPU am Limit wäre, sofern es 1 zu 1 umgesetzt würde), dann hängt es immer noch von den Entwicklern ab wie bzw ob Physx eingesetzt wird oder etwa nicht? Es ist nichts anderes als das TWIMTBP Programm. NV unterstütz die Entwickler Physx in ihre Spiele zu integrieren - ansonsten bekommt man die Konsolen Fassung!!!. Glaubt ihr etwa wirklich die Entwickler würden von sich selber aus eine speziell angepasste Physk Engine für die PCler entwickeln wenn doch sowieso die Leadplattform die Konsole ist? Wenn AMD es nicht auf die Reihe bekommt ein ähnliches Programm welches die Entwickler unterstützt zu entwicklen, dann ist nicht Nvidia daran schuld. Das diese ganzen Features NV exclusiv sind kann man natürlich ihnen vorwerfen jedoch pumpen sie nunmal Geld in das Programm insofern kann man es verstehen warum sie das machen.
 
Hallo zusammen,

@ AvenDexx

Also ich habe eben mal meine Kommentare zu dem Thema durchgeschaut, könntest du mir etwas auf die Sprünge helfen, konkret also, auf welchen Satz du dich beziehst?

Meinst du diesen Satz:

Oder anders ausgedrückt, wie wenn PhysX für Spieler übermäßig wichtig wäre.

Also wenn dem so ist, das hat sich eben aus dem ergeben, was @ Casius geschrieben hat, in mehreren kommentaren von ihm spricht er ja auch verallgemeinernd von PhysX.

Wie auch immer, dieser Satz hat sich mehr oder minder aus dem Kontext entwickelt, ich denke, du hast das vielleicht auch etwas mehr verallgemeinernd interpretiert, als es slebst @ casius getan hat. Wenn ich auch zugeben muß, daß die Formulierung etwas mißverständlich herüber kommt.

@ techneck

Ja, die GTX 4x Karten sind definitiv Schneller als die besagten ATI Pendants, teils aber kaum spürbar in den Spielen, solange nicht mit extremsten Filtereinstellungen gespielt wird, z. B. wird immer noch von den meisten Leuten eine 1600er Auflösung gespielt und da ist das Performanceplus nicht gerade Üppig.

Für mich sieht es so aus, wie wenn Nvidia regelrecht mit der Brechstange die Performancekrone holen wollte und dabei Stromverbrauch und Lautstärke sowie Hitzeentwicklung vollständig aus dem Auge verloren hat.

Insgesamt wage ich sogar die Vermutung, daß wenn ATI ebenfalls solch Rabiat ohne Rücksicht auf den Stromverbrauch vorgeganegen wäre, die Performancekrone wohl bei ihnen geblieben wäre.

Alles in allem ist für mich Persönlich die Radeon 5870/5850 in der Summe das stimmigere Produkt, erst recht in Zeiten, wo der Strom wohl nicht mehr Billiger werden wird.

So long....
 
oh man.Was geht hier ab.Beides sind gute karten.Die GTX 470 und die 5850. genauso wie die 5870.Leider ist mir die Lautstärke wichtig und a verliert Nvidia halt total.Leistungen der Karten sind doch sonst super.
 
AvenDexx schrieb:
1. sehe ich anders, denn schließlich gibt es ja auch noch Havok, etc. die eben die Entwicklung auch weiter vorantreiben. Da bleibt nichts stehen.
2. Gespalten ja, aber wie gesagt nicht in der freien Entwicklung behindert. Im Gegenteil, sie könnte sogar angekurbelt werden, weil man jetzt versucht, nVidia mit anderen, besseren Physik-Implementierungen/Engines ins Leere laufen zu lassen, was auch den Entwicklern zu Gute kommt und die aktuelle Spaltung wieder zu einem Gesamtkonzept werden könnte.

Das seh ich wiederum anders. Je mehr Spielentwickler PhysX verwenden (warum auch immer) desto weniger werden mit anderen Lösungen arbeiten. Wenn ATI Besitzer daduch benachteiligt werden ist das schlecht für alle.
Natürlich sehen die Konkurrenten nicht einfach zu bei der Entwicklung aber wenn NV und ATI an einem Strang ziehen würden, wäre eine offene Schnittstelle für GPU Physik schon Realität. Je mehr man nVidia mit ihrem eigenen Weg unterstützt, desto länger wird es dauern.

Das gleiche gilt übrigens für alle GPU-Processing Projekte. Gäbe es kein Cuda, hätten wir schon schöne Lösungen auf DirectCompute oder OpenCL basis. Ich verstehe nVidia und auch warum sie das machen und sie haben auch gute Arbeit geleistet, aber das ist eben nur gut für deren Firma und nicht für uns. Deswegen werde ich sie auch nicht unterstützen. Ebenso wenig wie die Entwickler der Spiele.
Das gleiche Spielchen gabs auch damals von Intel mit SSE, wo manche Spiele plötzlich bessere Grafik geboten haben wenn ein aktueller Intel Prozessor gefunden wurde. Die zwei (AMD/Intel) tauschen aber glücklicherweise deren Entwicklungen dann auch aus.
 
Zuletzt bearbeitet:
Bully|Ossi schrieb:
Ich geh immernoch kaputt, das bis ende August 09 im ach so tollen Guide "Der beste Gaming PC oder so" ein Dualcore empfohlen wurde... in der PC-Games Fazit : "Ein Quadcore ist bis zu 120% schneller" da helfen auch keine 4GHz mehr
Aber auch nur, wenns Spiel das unterstützt. Spiele, die nur auf einem oder zwei Kernen rumgurken, haben nix von einem Quad.
Luxmanl525 schrieb:
Also ich habe auch schon öfter Berichte von z. B. heise.de aufgeführt, die ich nicht direkt verlinkt hatte, zum einen weil ich den Link nicht zur Hand hatte als auch der Bericht selbst länger her war.
Das Internet ist zwar sehr dynamisch, aber Heise gehört zu den Vorzeigeseiten, die sämtliche News (auch die TP-Kolumnen) im Netz vorhalten -egal wie alt sie sind.
Stefan1207 schrieb:
Welche CPU wird den empfohlen um die GTX480; HD5870 oder sogar die HD5970 zu betreiben?
Universal-CPU= Core i5-750. Jede CPU mit Turbomodus eignet sich ideal für ZockerPCs. Nimmt das Spiel nur einen Kern= Viel mehr Takt. Nimmt das Spiel alle Kerne= Volle Rechenpower. Der Turbomodus ist eine der besten Innovationen der letzten Jahre finde ich. So muß man sich keine Sorgen machen, das sich die CPU mit einem alten Spiel langweilt bzw es aufgrund eines niedrigen Basistakts (weniger als 3Ghz) nicht schnell genug läuft.
casius schrieb:
Gebe es in den entsprechenden Spielen, einen schalter für Physik auf CPU, wäre ich erleichtert und ich hätte die aktuellste ATI Karte in meinem Rechner.
Wenn die Graka die Physik nicht durchrechnet, dann machts eh die CPU. Einer muß es ja tun.:D
 
Wenn jemand den Lochabstand der GTX470 hat, wäre ich froh, ihn zu erfahren. Gerne auch per PN.

Vielen Dank.
 
Zurück
Oben