ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
also wenn man das gehype aussen vorlässt:

was man von na neuen gen "erwarten" kann ist, das die neue top single der alten top dual karte entspricht ... das wäre in diesem fall knapp 10 prozent im schnitt über der 5870
sollte die 480 das nicht schaffen wäre sie ne enttäuschung, aber aktuell war ne aussage im raum von "nur" 20-30% vor der 5870 in verschiedenen bereichen was vermuten lässt, das es im schnitt mehr als nur 10% vor der 5870 liegen dürfte. (oder kurz: ja deine 10-20% sollten realistisch sein)

also ich würde das nciht enttäuschend nennen (wenn cihs auch nciht als das wunder von nv ansehe, was sie selbst anfangs erwarteten ;) )

immerhin nimmt das ergebniss nv aber den zugzwang, denn die anstrebten werte liegen voll in dem, was man "für gewöhnlich" von na generation erwarten könnte, ergo: wenn sie die werden mit nem b-spin schaffen haben sie ihr soll für die nächste gen schonmal im sack XDDDD )
 
für einen normalen generationswechsel ist das ja auch zu erwarten und erwünscht.

nicht aber für eine generation, die dermaßen von allen seiten gehyped wird/wurde (ich kann gerne mal paar prognosen von vor einem halben jahr raussuchen) und sich dermaßen verspätet.


gruß
 
@Neo_Xsendra: ich werde sicherlich nicht davon enttäuscht sein, weil ich ja eh nicht so viel mehr erwartet habe^^
zudem darf man nicht vergessen, dass der fermi primär nicht für den spielemarkt sondern für gpgpu konzipiert wurde und einige sogar schon über den rückzug nvidias aus dem spielesegment spekuliert haben. da ist die performance krone (singel-gpu) doch ne klare ansage.
die übersteigerte erwartungshaltung vieler rührt wohl auch noch daher, dass viele ati einfach nicht auf der rechnung hatten, aufgrund der letzten generationen, in denen die performancekrone schon wie selbstverständlich an nvidia gingen. viele wissen wohl schon gar nicht mehr, dass ati und nvidia seit generationen gleichwertige konkurenten im kampf um die performancekrone sind...
 
älteres zitat schrieb:
NV finally found final CLOCKS of GTX 470/480. Cards are ready to launch, will be in second half of March in reviews. There is one word: Gemini, when GF100 will be launched, remember for that word! Bye fans!

gibts zu gemini eigentlich neue Gerüchte oder war das ne Ente ?
 
Schaffe89 schrieb:
War die schlechte 2D Performance nicht anderer Natur?

nein, aber falls es dich beruhigt: mit meiner jetzigen HD5570 ists vorbei mit dem Geruckle.

Neo_Xsendra schrieb:
immerhin nimmt das ergebniss nv aber den zugzwang, denn die anstrebten werte liegen voll in dem, was man "für gewöhnlich" von na generation erwarten könnte

Ja, leistungsmäßig wird die erste DX11-Generation schon mal kein Reinfall werden. Wie es aber effizienztechnisch aussieht, werden wir hoffentlich bald erfahren...
Was ausserdem noch schlecht für NVidia läuft, ist dass ATI mit der neuen Generation stärker ist als angenommen, und so früh damit aufm Markt kam.
 
Wenn man die Stückzahlen im Gaming-Segment klein hält, dürfte das aber nicht sonderlich ins Gewicht fallen und man hätte zumindest eine Art Prestige-Objekt (schnellste Single-GPU Lösung, höchste Tesselation-Performance...)
 
ich denke, darauf wirds auch hinauslaufen. die gtx480 und gtx470 als prestigeobjekte zu hohen preisen (gleichgewichtspreis bei nachfrageüberhang) und einen wettbewerb in der mittelklasse mit ati.
also wird die gtx480 wohl nur was für "bonzen" sein, bei denen ne 600 € karte als prestigeobjekt im rechner sitzt ;)
 
Da es sich um ein spekulationthread handelt.... nehmen wir mal an, die GTX480 ist wirklich "nur" 20% schneller als die HD5870. Wer ist dann bitte ist so doof und kauft sich dann diese Karte für 600 €,wenn man für 250 € weniger ne HD5870 bekommt ?
 
Erst mal gilt es abzuwarten ob die Karte 600€ kostet - was unwahrscheinlich ist bei einer 400€-HD5870, sofern GTX480 nur 20% flotter ist. Und falls ja - es gibt Leute, die wollen die schnellste Karte sowie PhysX und CUDA.
 
Ich habe nicht umsonst meinen Thread damit begonnen y33h@: Da es sich um einen spekulationsthread handelt und nehmen wir mal an.

Und meinst du jetzt das PhysX das rausreisst? Dagegen spricht Eyefinity behaupte ich mal frech, auch wenn es 2 verschiedene paar Schuhe sind. Desweiteren wird sich eh mit der Zeit, diese ganze Physik Geschichte in eine standardisierte Richtung bewegen. Zumindest hoffe ich es.

Cuda ist ein Argument da geb ich dir Recht. Da hat derzeit Ati leider nichts wirkliches dagegen zu setzen, Stream wird leider nicht so gepusht wie Cuda. Aber das könnte sich mit der Zeit ebenfalls ändern. Die Frage ist aber, lohnt es sich für einen Gamer 200€ mehr auszugeben nur für Cuda ? PhysX lasse ich aussen vor siehe oben.
 
Also wenn es wirklich 20% wären und vll. noch ein paar andere nette features, why not...
 
@ Whoozy

Selbst für 600€ würden es einige kaufen, soviel ist sicher.

Und naja, manche sind PhysX-geil. Es ist optisch teils auch wirklich sehr cool, aber der Fps-Drop steht einfach in keinem Verhältnis. Ergo für die meisten wohl kein Killer-Feature, selbiges gilt für CUDA. PhysX und CUDA benötigen aber im Gegensatz zu Eyefinity keine zusätzliche Peripherie, das ist denke ich ein Argument. Mir persönlich geht CUDA und PhysX sonst wo vorbei, da die HD5870 eine GTX280 in vielen aktuellen Titel platt macht und zudem unter DX9 grandioses SGSSAA auffährt. Solange Fermi "nur" schneller ist und kein SGSSAA kann, wird es NV schwer haben, mich vom Kauf einer GTX480 zu überzeugen - PhysX/CUDA ist wie gesagt für mich nicht ausschlaggebend; da finde ich 1,5G VRAM schon deutlich spannender. Allerdings kann ich mir dann auch eine Eye6 mit 2G kaufen und per MK-13 und VRM-R4 mundtot machen - Fermi wird sicher alles andere als leise und damit für mich uninteressant, zumindest mit lauter RefDesign-Kühlung. Laut = no go.
Die Frage ist aber, lohnt es sich für einen Gamer 200€ mehr auszugeben nur für CUDO?
Aus meiner Sicht: Nein.
 
Physk(X) ist für mich allgemein total uninteressant, solange es nur bei Effekten bleibt. Das kann man auch auf anderen Wegen realisieren. Physik(X) würde wirklich nur ein Argument werden ( für mich ), wenn das Einfluss auf das Gameplay hätte. Aber das werden wir nur erleben können, wenn es einen Standard geben würde wie DirectX, den jeder der Hersteller nutzen kann und darf, behaupte ich mal.

Aus meiner Sicht: Nein.

Na dann sind wir uns ja einig.
 
Wie kann man PhysX auf anderen Wegen realisieren (außer Multicore)? Klar, NV könnte die Bibliothek auf OpenCL oder Direct Compute porten, damit würde man aber das Monopol aus der Hand geben - (vorerst) unwahrscheinlich. Und natürlich sind per GPU-PhysX keine Gameplay-Änderungen drin, kein Entwickler würde eine proprietäre Lösung (hier: nur mit NV-Karten) dafür nehmen, das wäre Selbstmord - zumal das ein PC-only-Titel sein müsste. Alternativ Gameplay-PhysX via CPU, aber da würde man auch ein Monopol verlieren und PhysX wie CUDA sind bei wirklich massiven Gameplay-Änderungen einfach nicht performant genug. Ok "Destruction 2.0" ist geil, aber die Brocken verschwinden gleich - sprich es kostet nur kurz Rechenleistung. Bei Crysis saufen die Fps mit hoher Physiklast auch mächtig ab.
 
Zuletzt bearbeitet:
y33H@ ich rede ja auch nicht davon das man es mit NV PhysX auf anderen Wege realisieren soll/kann/muss. Sondern das man die Effekte - mehr ist das nicht - auch allgemein anders realisieren kann. Crysis hast du schon genannt, BF BC nenn ich jetzt auch mal da es grade aktuell ist. Natürlich saufen die FPS bei Crysis ab bei hoher Physiklast, das selbe passiert aber auch bei NV PhysX. Aber die Effekte bei Crysis sind auch nicht schlechter als bei einem NV PhysX Titel. Darum geht es mir ja, diese Standardkost Effekte kriegt man auch ohne NV PhysX hin. Vondaher für mich unineressant.

y33H@ schrieb:
Und natürlich sind per GPU-PhysX keine Gameplay-Änderungen drin, kein Entwickler würde eine proprietäre Lösung (hier: nur mit NV-Karten) dafür nehmen, das wäre Selbstmord - zumal das ein PC-only-Titel sein müsste

Ich habe ja auch nie was anderes behauptet, habe ja gesagt das wir das nur dann erleben können, wenn es einen Standard wie z.B DirectX geben wird/würde.
 
direct x ist kein standard, sondern eine proprietäre lösung, die ausschließlich unter windows funktioniert ;)
hätte ati damals mitgezogen, hätte physx ja auch nix mehr im wege gestanden. aber hätte wäre wenn nützt auch nix. warum ati jetzt aber auf die idee kommt, ein eigenes physik zu bringen... nvidia wird doch wohl nicht so dumm sein, da mitzumachen. damit würden sie ihren teuren einkauf ad absurdum führen und agaia physx den todesstoß versetzen. so lange die beiden sich also nicht einigen, wirds für uns wohl kein physx geben, es sei denn von m$ ;)

@y33H@: wieso sollte physx nicht auf konselen laufen? ps3 und wii untestützen physx...

nichts des so trotz ist physx ein kleines gimik, dass wohl kaum einen hohen aufpreis rechtfertigen würde, ganz egal, ob ati das auch hat oder nicht.
der vermutlich hohe preis wird wohl vor allem für die exklusivität bezahlt. mit der technik lässt sich das kaum rechtfertigen.
 
Zuletzt bearbeitet:
@ Whoozy
Aber die Effekte bei Crysis sind auch nicht schlechter als bei einem NV PhysX Titel. Darum geht es mir ja, diese Standardkost Effekte kriegt man auch ohne NV PhysX hin.
Die Unmenge an Partikeln kannst du freilich auch mit Havok oder inhouse (Crysis) rendern. Auf der CPU wird das dann aber unspielbar und einen GPU-Port gibts zB von Havok (noch) nicht. Klar könnte Crytek diese Menge an Partikeln und bei gleicher Qualität auffahren, aber wirds wie gesagt unspielbar. Mit GPU-PhysX halt nicht - das ist der Knackpunkt.
Ich habe ja auch nie was anderes behauptet, habe ja gesagt das wir das nur dann erleben können, wenn es einen Standard wie z.B DirectX geben wird/würde.
PhysX ist offen, aber es gibt nur eine NV-GPU-Version. Und NV wird PhysX erst mal nicht auf OpenCL / Direct Compute porten, Monopol und so. Und per CPU-Rendering macht keiner große Gameplay-Änderungen, da zu unperformant. Bei BC2 ist das Zeug gleich weg, bei Red Faction ebenfalls. Richtige Gameplay-Physik (und damit meine ich nicht wegfliegende Wände oder Waschmaschinen rumfallen lassen) wirds in absehbarer Zeit nicht geben. Da mangelts an Rechenpower und Speicher, Stichwort Konsolen.

@ Lübke

GPU-accelerated natürlich.
 
Lübke schrieb:
direct x ist kein standard, sondern eine proprietäre lösung, die ausschließlich unter windows funktioniert ;)
hätte ati damals mitgezogen, hätte physx ja auch nix mehr im wege gestanden. aber hätte wäre wenn nützt auch nix. warum ati jetzt aber auf die idee kommt, ein eigenes physik zu bringen...

DX=Industriestandard

Physx=/ Industriestandard ;)

Und nein, AMD konnte nicht mitziehen, weil NVIDIA ihnen klar und klipp gesagt hat, dass sie abdampfen können.

AMD unterstützt Bullet, sowie Havok. Reicht dir das nicht?
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben