News Erster Test der Nvidia GeForce GTX 680

Die 3 Besten Spiele von 2011 hatten Havok Vision Engine und selbst Batman2 haben sie so programiert das es mit CPUberechnung genauso gut aussieht und läuft.
 
Na ja, Physx ist halt (bis jetzt) eine nVidia-Only-Plattform, klar das die das nicht einfach so für lau freigeben, oder gar noch Open Source daraus machen, immerhin haben die damals mit der Ageia-Übernahme reichlich Schotter gelöhnt - natürlich auch mit dem Gedanken dahinter, Markt-Dominanz zu bekommen!

Aber es ist ja nicht so als wäre derartiges Vorgehen nur bei nV zu sehen:
...Neben PhysX gibt es noch die reine Software-Lösung Havok, die in vielen Spielen als Middleware eingesetzt wird und inzwischen zum Branchenriesen Intel gehört. Intel übernahm Havok interessanterweise nur ein halbes Jahr nach der Übernahme von Ageia durch Nvidia. AMD hingegen entwickelte ATI-Stream (mitterweile in APP umgetauft) für allgemeine Berechnungen auf den eigenen Grafikchips und unterstützt mit Bullet eine quelloffene, freie Physik-Engine, die in der Praxis aber so gut wie keine Rolle spielt...
http://www.gamestar.de/hardware/praxis/grafikkarten/2312602/nvidia_physx.html

Das da drunter lässt jedoch hoffen:

...Weiterhin gibt es den offenen Standard OpenCL, den Nvidia mittels CUDA und AMD mittels APP unterstützen und der ebenfalls die Programmierung von Physikberechnungen auf Grafikkarten ermöglicht. Seit DirectX 11 gibt es mit den Compute Shadern zudem eine Schnittstelle für allgemeine Berechnungen auf Grafikkarten. Jede Grafikkarte, die mindestens DirectX-10-kompatibel ist, kann dafür eingesetzt werden. Somit könnte DirectX als dominierende Programmierschnittstelle für PC-Spiele langfristig dafür sorgen, dass Physikberechnungen sowohl auf Radeon- als auch Geforce-Karten gleichermaßen beschleunigt werden und PhysX zum Auslaufmodell wird...
Wie immer ist es jedoch eine Frage der Hersteller, wer was wie pusht.

Und da nV ihr Physx ziemlich deutlich pusht, wird von da wohl so schnell nichts kommen.

Es war doch schon immer so, dass jeder Hersteller sein eigenes Süppchen kocht, und ihre Plattformen nur via Lizenzen frei geben (oder gar nicht).

Aber auch hier gibt es einen kleinen Lichtblick:

...Laut Nvidia hat sich bei PhysX 3.0 so einiges getan. So soll die neuste Version satte drei Jahre in Entwicklung gewesen sein, da die komplette PhysX-Engine neu geschrieben wurde und fortan modular aufgebaut ist. Dabei gibt es jetzt unter anderem einen neuen „Task Manager“, der Multi-Threading verbessern soll und damit einen Schub für Mehrkern-Prozessoren bedeutet. Genau dies ist bis jetzt mit der größte Kritikpunkt an PhysX, da die Physikberechnungen bis jetzt (fast) immer nur auf einem CPU-Kern durchgeführt werden...
https://www.computerbase.de/2011-06/physx-3.0-sdk-bringt-besseren-multi-core-support/

Das heißt dann wohl auch, dass es CPU-Hersteller-übergreifend funktioniert, egal ob mit AMD- oder Intel-CPU!
 
Zuletzt bearbeitet:
Was aber nichts daran ändert das man immer noch dafür zahlen muss^^
Wenn es auf einer Grafikkarte läuft, braucht man es nicht auf eine CPU exportieren.
Den wenn die Grafikkarte und CPU die gleiche Aufgabe berechnen können, ist die Grafikkarte durch ihren massiven parallelen Aufbau IMMER schneller. Und was zeichnet Physik in Spielen aus?
Richtiiig, physikalisch korrekte parallele Darstellung vieler Objekte möglichst sogar mit Interaktion mit anderen Objekten.

Das Physx seit Jahren immer nur einen CPU Kern belasten kann ist ja auch der Schwachsinn überhaupt. Multikernsupport bei Physik sollte jawohl standard sein, wenn man das bei einer Grafikkarte schafft welche eigentlich auch nur viele spezialisierte Rechenkerne in sich vereinigt.

Da aber sämtliche Grafikhardware aller Next-Gen Konsolen wohl (hoffentlich) nur von einem Hersteller kommen werden(AMD) dürfte NVIDIA sich drehen können wie sie wollen. Da wird kein Hahn mehr nach schreien.

Der Markt nimmt die billigste und am weitesten verbreitete Lösung an.
Und das ist in keinem einzigen Fall Physx. Weil Physx nicht auf Konsolen läuft sowie in angemessener Geschwindigkeit nur auf Grafikkarten und da wiederum auch nur auf NVIDIA Karten. Eine offene Lösung, kostenfrei(open source) und vorgegeben für ALLE APIs würde etwas bringen, am besten OpenGL/CL oder sonstwas. Denn DirectX ist wieder an den PC gebunden-.-

Standardisierung ist eine der größten Errungenschaften der Menscheit, und wir machen sie gerade hier wieder kaputt. Man muss ja überall Sonderlösungen bauen(PC, PS3, XBOX, Wii), obwohl alle genau das selbe berechnen müssen.
 
ich dachte kepler hat auch dx11.1??
oder ist das nur ein schreibfehler?

mfg
 
Na ja, man kann jetzt lange herum lamentieren warum es akt. so ist, und warum nicht.

Auch Träumereien von einer besseren Welt mit mehr Fairness, und wie es im Idealfall sein müsste, bringen hier nichts.

Fakt ist, dass jeder Hersteller zusieht die Kunden exklusiv an sich zu binden, und dem Konkurrenten keinen mm Boden gönnt!

Auch den Untergang von Physx zu prognostizieren, halte ich ebenso für gewagt.

NV wird nicht tatenlos zusehen wie denen die Felle weg schwimmen.

Dann werden die halt (also eigentlich wie dato) die Gaming-Coder noch mehr "unterstützen" um damit ihr Produkt zu pushen.
 
Ganz grosses kino bei den letzten gens hörte man von amd lager nur jo die amd sind sparsamer bla bla und jetzt auf einmal ...

Jo 7970 oc machen dann fegt man die 680gtx weg und die 25W mehr die man durch leichtes (nicht mal maximales) oc nochmals mehr verbraucht zusätzlich zu dem schon @default höherem verbauch zur 680gtx sind auf einmal nicht mehr wichtig...
ja ne is klar stimmt is amd die dürfen mehr verbauchen als nv weil sie die guten sind :D .
 
Zuletzt bearbeitet:
Du willst ja wohl kaum die Differenz im Stromverbrauch zwischen 7970 und 680 mit der damaligen 400er Nvidia vs 5000er AMD vergleichen. Der Abstand war damals deutlich größer. Und wenn man dem Test vertraut verbaucht die 680 im idle mehr als die 7979, dafür unter Last halt weniger.

Beide haben halt diesmal ziemlich gut abgeliefert. Beide Karten haben ihre Vor und Nachteile. Diese werden von den jeweiligen Fanboys halt immer größer gemacht als sie sind.
 
Ich prognostiziere nicht den Untergang von Physx, ich wünsche ihn mir;)
Eine Dominanz erreicht man mit Physx ja nicht, sieht man ja ziemlich gut.

Der einzige der es meiner Meinung nach geschafft hat proprietären Nonsens im Consumer-PC Bereich einzuführen war wohl Microsoft mit ihrem DirectX, das aber wurde von allem unterstützt und hat sich daher durchgesetzt. Das Wort "alle" ist hier das wichtigste. AMD hat immer noch ca 40-50% Marktanteil(dedzidierte Lösungen + Konsolen nicht dabei).

Das mit fehlenden Physx wird eh nur ein Auslesefehler sein, bin ja kein Spinner.
Ich bin aber gespannt wie die GTX 680 übertaktbar sein wird.
Ich vermute das das nichts wird, der Turboclock sagt ja schon einiges aus.
Da wird man Spannungstechnisch wohl wieder Dampf machen müssen um was zu erreichen.

Die OC Ergebnisse einer ausgereiften 40nm Produktion mit der einer brandneuen 28nm Produktion(welche sogar gestoppt werden musste) zu vergleichen ist nie sinnvoll.
Es kann passen, schiefgehen oder getoppt werden.
 
Das Board z.B. hat nur 4 Phasen. Es anderes Bild zeigt jedoch 5 Phasen.

Danke für den Aufwand, die Bilder zu posten ;)
Was ich mich frage: Was könnte man aus einem Foto des Steckanschlusses schließen ? Er ist ja extra mit einem Stück Papier abgedeckt.

Was die Phasen betrifft, so hat der Ram auch welche. Die Kondensatoren sehen dann auch so aus wie die anderen. Die 5. Phase könnte also für den Ram sein.
Allerdings habe ich keine letztendlich Ahnung von Elektronik

Die Unterschiede der Karten auf den Bildern können einen anderen Grund haben: Das Nvidia-foto könnte eine Computergrafik ein. Kein Witz: Unternehmen verwenden manchmal hochwertige Computergrafiken als Produktfotos. Man kann es kaum unterscheiden . Früher waren es sogar Zeichnungen
 
Zuletzt bearbeitet:
chris233 schrieb:
...Was könnte man aus einem Foto des Steckanschlusses schließen ? Er ist ja extra mit einem Stück Papier abgedeckt...
Seriennummern, Hersteller-Nachweise etc.:

http://img.tomshardware.com/de/2004...rosse_thg_kaufberatung/pic-agp-pcie-cards.jpg

http://upload.wikimedia.org/wikipedia/commons/9/97/PCI-Express-graphics-board.jpg

Also all das was einen Ursprung zur. verfolgen ließe - und wo die "NDA-Brecher" natürlich wenig Interesse daran haben das dieses passiert.
 
Mal wieder keine Revolution (ob wir nochmal eine erleben werden?) aber insgesamt sieht mir das sehr rund aus :)

Ich hoffe die neue Generation handelt 2560*1600 etwas besser als die letzten Karten, wobei mir die relativ beschränkte Speicherbandbreite da sorgen macht...mal abwarten, evtl. wirds dann eine GTX670 im Sommer.
 
Zuletzt bearbeitet:
Sind doch alles die selben Trotteln bei Nvidia und AMD wie bei den Ölmultis da oben.
Bevor man bei jeder neuen Generation neue Karten bringt die min. 50% schneller sind als die Vorgänger, wird alles schön auf 10-15% beschränkt um den letzen Cent rauszuquetschen.

Solln sie doch machen, meine GTX570 reicht nun wieder bis die GTX990 kommt und dann kann man sich wieder "spürbare" Mehrleistung erwarten.

Und wegen den Konsolenmatschpixel wahn, ist ein Wechsel sowieso nun mehr erst alle 5-6 Jahre nötig ;-)
 
Sontin schrieb:
Ach und was hat dir die "öffentliche und lizenzfreie Lösung" bis heute gebracht? :evillol:
Es gäbe z.B. keine Physik im 3DMark11 :evillol:

Es gibt doch bereits Spiele mit Bullet und demnächst wird auch CimCity 5 mit Bullet kommen. Schön, dass endlich auch EA Games beriffen hat, das man mit proprietärem Scheiß auf Dauer nicht weiter kommt. :p
 
Vitec schrieb:
Ganz grosses kino bei den letzten gens hörte man von amd lager nur jo die amd sind sparsamer bla bla und jetzt auf einmal ...

Jo 7970 oc machen dann fegt man die 680gtx weg und die 25W mehr die man durch leichtes (nicht mal maximales) oc nochmals mehr verbraucht zusätzlich zu dem schon @default höherem verbauch zur 680gtx sind auf einmal nicht mehr wichtig...
ja ne is klar stimmt is amd die dürfen mehr verbauchen als nv weil sie die guten sind :D .

Weißt du das gleiche hab ich mir über NV Lager gedacht.
Ja effizient und niedrigerer Verbrauch ist wichtig, bla bla...
Du hast das OC mit 7970 wohl nicht verstanden. Überaktest du eine 7950 quasi auf eine 7970 dann bist du sogar um 15-20 watt effizienter. (scheinbar)
7970 hat noch einiges an Potential, mal sehen ob die 680 gtx das auch hat.

680gtx hat sicherlich das gemacht, was die 7770 HD mit der 6770 und der Konkurrenz gemacht hat.
Man hat gemerkt, ein höherer Verbrauch bringt mehr Performance und weniger Verbrauch als eine größere GPU.
Was mich wirklich interessiert wie schaut es mit den unteren Modellen aus, wie heißt eigentlich der kleinere Chip ??? also für die 660 gtx ?? oder wird das eine Restverwertung ?


Weiteres wer sagt dass mit allen funktionierenden DIE der Takt für eine 680 gtx möglich ?? vllt sind diese selektierte und du bekommst nur 670 gtx auf den markt mit einem deutlich niedrigeren Takt. Solange die Karte nicht draußen ist und keine ausgewogene Tests draußen sind (ja mehrere zum Vergleichen), kann man zwar viel über die Karte sagen, doch was stimmt jz was nicht ???

Pilstrinker
O0
 
Zuletzt bearbeitet:
Zu Physx:
GPU-Z 0.59 kann diese Karte noch nicht komplett auslesen, das Bios auslesen funktioniert ja auch noch nicht.
Kommt immer der Fehler: BIOS reading not supported on this device.
 
Pilstrinker schrieb:
[Wissenshuberei on]

Plural von DIE ist DICE und von MOUSE MICE.

:)

[Wissenshuberei off]

Das war jetzt jawohl hoffentlich ein Witz. Ansonsten sollte man es in so einem Fall mit Dieter Nuhr halten... Der gängige Plural von DIE ist DIES.
 
Zuletzt bearbeitet:
Selbstverständlich im Englischen. Die Version "DICE" für den Plural von DIE ist kaum gebräuchlich. Ich nehme ja an, dass du in einem Forum wie CB den BEgriff für den Chip meinst.
 
Zuletzt bearbeitet:
Zurück
Oben