ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
Nein war meinerseits auch nicht so gemeint.
Es war nur ein Vergleich(mit Volker und Wolfgang), dass selbst unter Druck noch gute Test entstehen können, was man ja von bezahlten Testern ala PCGH erwarten kann.

Aber ansich stimme ist dir zu und die Hersteller sollten den Redakteuren wirklich genug Zeit lassen .
 
dass selbst unter Druck noch gute Test entstehen können

Der Konjunktiv hat wirklich seine Berechtigung schließlich ist nicht jedes Medium mit solchen Testern wie CB sie hat, gesegnet.
Deshalb ja auch meine Vermutung, dass sich diese Unterschiede auch bis zu nVidia durchgesprochen haben.

Ich hab das übrigens auch nicht persönlich aufgefasst, sondern wollte nur die durch schlampige Formulierung meinerseits entstandenen Unklarheiten klarstellen, von daher also :schluck:
 
Auslachen? Fanboys? Lasst mal stecken Jungs, da hilft auch kein Mindestalter. https://www.computerbase.de/forum/threads/707351/

Ich finde es einerseits bemerkenswert, dass einige sich massiv darum bemühen um jedes Missverständnis und Verstimmung zu vermeiden und andere sich einfach nicht in Griff haben und ohne jede Not da direkt ausfallend werden.
 
ich halte diese taktik von nvidia, physx als alleinstellungsmerkmal zu vermarkten zum jetzigen zeitpunkt für einen fehler. dazu ist physx noch zu bedeutungslos. imho würde es ihnen mehr bringen, wenn auch kunden der hd5k sich eine "kleine" nvidia als physxbeschleuniger dazukaufen würden.
 
Dieser Meinung möchte ich mich anschließen, so könnte man auch den vergleichsweise hohen Preis der kleinen nVidia-Karten rechtfertigen. Allerdings stünde diesem Vorhaben das Problem entgegen, dass PhysX zu anspruchsvoll ist, sprich für einen ansehlichen Grad an Effekten zu viel Leistung benötigt.
 
das ist auch son punkt. die spielehersteller sollten mal etwas resourcenschonender arbeiten. eine gt240 kann schon eine ganze menge leisten und sollte imho das maximum für einen physxbeschleuniger sein. eine agaia-zusatzkarte hat nur einen bruchteil der leistung.
 
Aber ressourcenschonender bedeutet auch mehr Kompetenz des Programmierers und auch mehr Zeit für die Fertigstellung, was sich im endeffekt in den Kosten niederschlägt. Da man heutzutage aber nur noch die (möglichst niedrige angesetzten) finanziellen Vorgaben erstellt und erst dann mit der Arbeit anfängt, ist so etwas wohl zu einer Rarität verkommen. Nunja, der Gedanke der nachhaltigen Nutzung vorhandener Hardware ist eben nicht sonderlich verbreitet.
 
Das Problem ist für mich, dass Physikbeschleunigung als solche noch viel zu unausgereift ist. Für eigentlich minimale sichtbare Effekte muss man massiv Hardwarepower investieren. Physikberechnung als solche ist sicherlich schon weiter, aber alles was plakativ auch sichtbar sein soll, wirkt doch schnell übertrieben hardwarelastig.

Klar, Fermi könnte in der Richtung vielleicht sogar mehr bringen, also auch ohne separate Beschleunigerkarte sinnvolle Ergebnisse bringen, ohne die Grafikleistung als solche noch zu behindern. Nur was hilft es, wenn man sich auch das dennoch teuer (Energie verbraucht es so oder so vermutlich massiv) erkaufen muss und zudem proprietär bleibt. Vernünftige Hardwarebeschleunigung im Bereich bleibt wohl so oder so erstmal Zukunftsmusik und eher ein PR Spielzeug.

Wenn erstens die Beschleunigung vernünftig implementiert ist, zweitens die Engines entsprechend standardisiert sind und drittens in der Spieleentwicklung auch entsprechend effektiv umzusetzen sind, dann wäre die versprochene Verbesserung sichtbar. Der dritten Punkt scheint durchaus schon so einzutreten, denn PhysX-Engine-Titel gibt es genug, nicht nur auf dem PC und die allerwenigsten brauchen zwingend Nvidia-Karte zur Darstellung.

Woran es hapert ist also eher das, was eigentlich Alleinstellungsmerkmal sein soll(te). Die paar Effekte mehr, die zwingend Nvidia-Hardware voraussetzen sind den ganzen Aufwand eigentlich noch nicht wert.
 
Aber ressourcenschonender bedeutet auch mehr Kompetenz des Programmierers und ...
dabei fällt mir grad der 3d-egoshooter kkrieger ein, der nur wenige kilobyte groß ist und neben vielen anderen spielen auf eine diskette passt. :D

jetzt aber genug ot^^

zurück zu cypress und fermi ;)
 
Zuletzt bearbeitet:
@Happy Mutant

Weil du von PhysX-Engine-Titeln sprichst: ich hielte es gnerell für sinnvoll, wenn man die Berechnungsmöglichkeiten möglichst variabel gestalten würde. Sprich, dass man sowohl auf jeder x86 CPU als auch auf jeder GPU rechnen lassen könnte und am besten gleichzeitig (wobei zugegeben die ohnehin shcon hohe CPU Last der Konsolen-Portierungen da ein Problem darstellen würde).

Dies würde meiner Ansicht nach nVidia um einiges mehr an Geld in die Taschen spülen (worum es ihnen ja letztendlich auch geht) als wenn man das Ganze derart beschränkt. Meinetwegen auf nvidia-GPUs einige spezielle Boosterfunktionen, wenn es denn unbedingt sein muss. Auf diese Weise würde man
a) mehr lizenzgebühren für PhysX bekommen, da aufgrund der variablen einsatzmöglichkeiten die Sache vermehrt genutzt werden würde und
b) mehr beim GPU Verkauf lukrieren, da man nun (so man, wie du und Lübke es schon erwähnt habt, die resourcenschonende Implementierung ordentlich hinbekommt) ein Verkaufsargument für Leute mit einer großen ATi-Karte hat, die sich dann eine GT240 für PhysX dazustecken könnten.

Soweit meine Milchmädchenrechnung.^^

@Lübke

Ja, als man noch gezwungen war, ordentlich zu programmieren, hat man sowas zusammengebracht. Von diesem Ethos könnte sich heute so mancher etwas abschneiden.^^
 
...sowohl auf jeder x86 CPU als auch auf jeder GPU rechnen lassen könnte ...
die cpu ist für aufwendige physikberechnung viel zu langsam. da sind nur vergleichsweise simple effekte möglich. in der autoindustrie z. b. wird deshalb schon lange vor physx die physik bei simulierten crashtests auf gpu berechnet. physiklaische deformation oder kollisonen mit sehr vielen komponenten erfordern eine sehr hohe parallelisierbarkeit und das ist durch die shaderarchitektur der gpu gewährleistet...
 
Havok läuft ja momentan auch nur auf der CPU und sieht für Spiele gesehen gar nicht so übel aus. Ich hatte meine Äußerung auf die Nutzung in Spielen bezogen und daher den von dir genannten Aspekt vorweggelassen.

Dass man für professionelle Lösungen an einer GPU mit ihrer stark paralellisierten Leistung nicht vorbeikommt, war und ist mir klar.
 
ich spreche auch durchaus von spielen. die frage ist einfach, wie komplex und realitätsnah solche effekte werden sollen. wenn sie über kurz oder lang sogar auswirkungen auf das spiel haben sollen (z. b. splitterflug), dann reicht die cpu-physik nicht mehr aus.

ich vermute mal, ein kollisionsmodell mit 1.000 objekten (z. b. bruchstücken) dürfte auf ner 30,- € grafikkarte wie der 5350 oder 9400gt schneller laufen als auf ner 1.000,- € cpu. der grund ist die shaderzahl gegenüber der zahl cpu-kerne.
 
/OT:

das problem beim ressourcenfressenden physx ist doch auch, das unbedingt jeder noch so kleine tropfen und jedes staubkorn "physikalisch" korrekt fliegen soll. das ist einfach etwas übertrieben.

es gibt doch genug beispiele, das es auch ohne physx erstmal sehr gut aussehen kann und zumindest "den anschein" physikalisch korrekter bewegungen macht.

ähnlich beim raytracing und den 100% korrekten spiegelungen.

der fermi soll dann wohl auch gleichzeitig grafik und physx mit viel power zur seite stehen, oder?!

mfg
 
Das ist allerdings wahr, bis in kleinste Detail kann man das meinetwegen bei ganz hohen Einstellungen machen, aber z.B. bei Shootern reicht es meiner Ansicht nach völlig, wenn der Grad von BF BC2 erreicht wird (vielleicht noch eine Spur realistischer [etwa bei den Bäumen]), schließlich wird man ja bei einem tumultartigen MP-Gefecht wohl kaum darauf achten, dass beim Einschussloch auch alles korrekt davonstiebt. Zumindest kenne ich niemanden, der diese Verhaltensweisen an den Tag legt.

Um auf das Thema zurückzukommen, auch wenn ein voller 512SP GF100 30% oder sogar noch weiter vor einer 5870 liegt, so kann ich mir trotzdem schlecht vorstellen, dass man z.B. Metro2033 in voller Grafikpracht in Verbindung mit voll aufgedrehtem PhysX mit aktzeptablen Frameraten spielen kann (auf einer einzigen GTX480), da man ja eine GTX285 mit genügend Qualitätsmodi in die Knie zwingen kann, ohne dass man auch nur an PhysX gedacht hat. Wenn man also von einer sagen wir 30% Mehrleistung der 5870 zur GTX285 ausgehen, dann wäre eine GTX480 knappe 70% schneller, was meiner Ansicht nach zwar für volle Grafik, aber nicht für volles PhysX reicht. sollte dem nicht so sein, wäre ich jedoch positiv überrascht.
 
Zuletzt bearbeitet:
Ja sehe ich auch so. Solange es kein Spiel gibt, dass man in Zeitlupe spielt , ist es keinem Spieler wirklich wichtig.
 
... und von einem Nvidia-Mitarbeiter bewacht wurde.

Da haben die ja super Arbeit geleistet. :lol:

Naja aber wieder nichts wirklich aussagekräfitiges. Wer weiß denn ob das eine echte Fermikarte war. So einen Aufkleber kann sich jeder machen.
 
das wird schon ein fermi gewesen sein.

oder meinste die bauen extra eine fake-karte mit hdmi?
aber wer weiß ;)

viel merkwürdiger finde ich, das die demo ohne AA trotzdem ruckelt.

mfg
 
ja die frage ist, was man mit physx und mit raytracing darstellt und was lieber auf konventionelle art. jede technologie hat auf ihrem gebiet große vorteile, ist aber kein allheilmittel. ob jetzt bei einem regenschauer jeder tropfen einzeln richtig beim aufprall zerpaltzen muss und die dabei entstehenden tropfen untereinander korrekt miteinander kolidieren, wage ich auch mal zu bezweifeln. deformationen durch fahrzeugkollisionen oder querschläger von projektielen hingegen wären schon sinnvoll, wenn sie korrekt wiedergegeben werden. oder verletzungen durch glassplitter oder umherfliegende trümmerteile...

und auch raytracing bringt bei lichtberechnung enorme vorteile gegenüber dem herkömmlichen verfahren. für statische objekte ist es allerdings eher ungeeignet und sehr resourcenfressend.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben