News Bilder zur PhysX-Techdemo für die Fermi-GPU

Langsam frage ich mich, ob Fermi überhaupt außerhalb vom NV-Labor lauffähig ist. :baby_alt:
 
@Sentionline
Dein Raytracing kannste dir momentan in die Haare schmieren. Sag mir mal welche Spiele in den nächsten 12 Monaten rauskommen werden, die Intensiv von Larabee profitieren oder zumindestens vom Raytracing. Ach null. Wie schön.
 
Turbostaat schrieb:
..., die Intensiv von Larabee profitieren oder zumindestens vom Raytracing. Ach null. Wie schön.
Ist zwar kein Raytracing, aber das Voxel Raycasting in id tech 6 wird auch keine TMUs und ROPs verwenden. Wie ich schonmal gesagt habe, will man Software auf neue Hardware umstelen, braucht man die neue Hardware. Oblivion konnte so früh so wie es war nur auf der XBox 360 veröffentlicht werden, weil es auf PowerMacs getestet wurde, bevor es erste Exemplare der XBox360 für Entwickler gab.
 
Zuletzt bearbeitet:
@Konti
Ja die Menschheit ist auch blöd, siehe wie alle zu Media Markt wie die Lemminge laufen und sich dort "beraten" lassen oder durch deren Prospekte wo Rechner mit "gigantischen [große Zahl] MB" beworben werden.
Genau das selbe hier in grün.
 
Bzgl. Raytracing hat keine Relevanz für den Endkunden

Sentionline schrieb:
Was hat denn Relevanz? 28 Monitore für den Gamer an einem Anschluss?

Ok, dann vergleichen wir wiedermal Äpfel mit Birnen.

1. Kannst du nirgends 28 Monitore an einen Anschluss klemmen.
2. Mit Eyfinity ist es auch nicht möglich 28 Monitore an einem PC zu nutzen.
3. Es ist möglich 24 Monitore mit einem PC und vier Grafikkarten zu betreiben die in 3D Echtzeit ein gesamtes Bild darstellen können.
4. Könntest du das auch zuhause machen wenn die neuen ATIs mit 6 Display Ports rauskommen. Echtzeit-Raytracing kannst du aber nicht betreiben, weder mit ATI noch mit nVidia.
5. Jeder der eine ATI HD 5XXX hat kann 3 Monitore ansteuern.
Also was davon hat Relevanz für den Endkunden? Warum gibts immer einige die denken, dass sie jedes Feature einer Grafikkarte persönlich verwenden müssten, damit es überhaupt Sinn macht?
 
Zuletzt bearbeitet:
BTW wer soll die noch kaufen wollen? Da hol ich mir lieber ne HD5770 in ein paar Tagen.
Ja eben, bin auch der Meinung das wenn neue Grafikkarte dann DX 11 ATI HD 5850 1GB oder eben HD 5770 oder sonst was, aber keine 10.0 Karte mehr. Warum das ganze noch viel schlimmer machen indem man Balken präsentiert die 2-3mal über einer GTX 285 liegen! Wer kauft dann noch die Karten? Reicht ja schon das ATI den Markt mit 40nm und DX 11 Karten flutet.

Also vorerst gilt bei NV die Devise(die nicht jeder versteht weil es Marketing ist) DX 11 ist unwichtig und Fermi ist unbedeutend bei Games. Wenn dann aber Fermi aufschlägt wie eine Bombe: NV Marketing -> DX 11 ist extrem wichtig, alle mal herschauen, Fermi plättet den kompletten Markt, keine GPU ist schneller...

So schwer ist das Marketinggeblubber doch gar nicht zu durchschauen, einfach mal andersrum denken. :rolleyes:
5. Jeder der eine ATI HD 5XXX hat kann 3 Monitore ansteuern.
Sicher?
http://ht4u.net/news/20979_weitere_einschraenkungen_bei_amds_eyefinity/
http://ht4u.net/news/20977_artikel-update_radeon_hd_5870__eyefinity/
 
Zuletzt bearbeitet:
ich muss Turbostaat auf jeden Fall recht geben. sehe es nämlich genau so. Nenne mir doch jemand mal nen Grund warum man Hollywood Szenen in dieses Vid gepackt hat? Wissenschaftlich interessiertes Publikum würde sich wohl eher über sowas wie Proteinkonstellationberechnung oder sowas freuen, was halt sehr schnell läuft. Leute ausm Animationsbereich über eine Demonstration von Leistung anhand einer "realen" Situation. Und was fängt man mit schönen polierten Filmszenen?? Kiddies, und halt den verdummten Teil der sich nicht wirklich mit der Materie beschäftigen will/kann. Und wenn man wirklich nicht glauben will das ein so großer Anteil so verdammt dumm ist (sorry, aber seh ich leider so) dann sollte man sich mal die zeit nehmen und ein paar foren durchstöbern. Da bekomm ich wirklich Angst wenn ich sowas lese...

Fakt ist für mich :

-eine Präsentation von tollen Features die nicht auf der Karte läuft ist für mich n Witz.
-Mit Folien und Dummies um sich zu werfen zeigt für mich das die Karte noch lange nicht fertig ist.
-Ist es evtl wirklich so das die Yield Rate so erschreckend war? Man macht ne nette Promoveranstaltung, zeigt dem "Fachpublikum" aber nicht den Hauptgrund des ganzen?
 
Kasmopaya schrieb:

Klar, du brauchst nur einen Monitor mit Display Port oder einen Adapter. Ist doch nicht das erste mal!? Bei den meisten Karten brauchte man irgendeinen Adapter weil erst ein VGA und ein DVI und später ein DVI udn ein HDMI Stecker dran war. ;-)

founti schrieb:
-Ist es evtl wirklich so das die Yield Rate so erschreckend war? Man macht ne nette Promoveranstaltung, zeigt dem "Fachpublikum" aber nicht den Hauptgrund des ganzen?

Das sehe ich auch so. Klingt wirklich nach einer vollen Verzweiflungspräsentation. In der Hinsicht macht mir nVidia gerade etwas Angst, da nicht mal ansatzweise Hinweise vorhanden sind, dass die Jungs schon funktionsfähiges Silizium haben, oder es ev. noch nicht betreiben können!? Ich gönne ATi gerade wirklich diese Zeit, da sie sich schon lange auch mal den kleinen Vorsprung und die damit verbundene Kohle verdient haben, aber es wäre auch nicht gut wenn man extrem lange auf die Antwort von nVidia warten müsste - auch für die Verbreitung von DX11. Alleine Tesselation ist ein Grund warum viele Spiele auf der XBox360 gut aussehen, obwohl sie mittlerweile gegen aktuelle PCs eine verhältnismäßig lächerliche GPU Power haben. Das lässt hoffen.
Was mich noch mehr überrascht ist, dass ich einigen Artikel darüber, dass sich nVidia mit dem GT300 vollkommen in die GPU-Computing Richtung verläuft, nun doch mehr Beachtung schenken muss, da die Jungs ja auch mit nichts anderem so richtig hausieren gehen wollten auf der "Vorpräsentation". Ich dachte, das ist nur heiße Luft der ATI Freunde - aber mal sehn. War auf jeden Fall unerwartet.
 
Zuletzt bearbeitet:
DvP schrieb:
Klar, du brauchst nur einen Monitor mit Display Port oder einen Adapter. ...
Nein, du brauchst eben nicht einfach nur einen Adapter, sondern einen aktuven Adapter, der ein richtiges DisplayPortSignal in ein HDMI/DVI-Signal wandeln kann und mehr als 100 Euro kostet, weil die Radeon HD5000er eben nicht selbst feststellen können, welches Signal sie über den DisplyPort ausgeben sollen, obwohl es eigentlich zum DisplayPort dazugehören würde, dass sie sowas erkennen können. Steht hinter den Links von Kasmopaya. So normal mti einfach nru Adapter wie früher auch ist es also beileibe nicht - es ist zienlich billig, was einem ATI in diesem Aspekt anbietet. ;)

DvP schrieb:
...
.... Alleine Tesselation ist ein Grund warum viele Spiele auf der XBox360 gut aussehen, obwohl sie mittlerweile gegen aktuelle PCs eine verhältnismäßig lächerliche GPU Power haben. ....
Das ist so ein Widerspruch in sich, denn Tesselation ist ja nur dafür da aus einem zu gering auflösenden Polygonraster, ein höher auflösendes zu erstellen, dass dann mehr Leistung braucht, als das urspüngliche. Gerade wenn man weniger GPU-Leistung hat, ist Tesselation das falscheste, was man machen kann. Diese Sache ist vollkommen overhyped.
 
nvidia sollte mal schnell die karte vorstellen,und nicht mit den unnötigen screens auf sich aufmerksam machen...
 
MountWalker schrieb:
....Diese Sache ist vollkommen overhyped.

Achso wenn bessere, detailgenauere Grafik bei selber oder besserer Geschwindigkeit neuerdings overhyped ist, dann müssen "wir" ja nichts mehr weiterentwicklen und Physikeffekte sind auch total unwichtig oder besser gesagt overhyped.
Lasst uns wieder Commander Keen spielen, da ging es auch ohne Tessalationeinheit
 
@Sentionline
Deine Flameversuche sind so lächerlich, da muss man sich für schämen.
 
Xedos99 schrieb:
NV wäre gut beraten, CGCPU(CUDA)aus dem Bereich Consumer - Grakas herauszuhalten, sonst muß der geneigte Zocker Features mitkaufen,die er gar nicht braucht und die Karte unnötig verteuert.

2 verschiedene architekturen zu entwickeln wird noch viel teurer für nvidia und damit letztendlich auch für den endkunden.
 
Turbostaat schrieb:
Achso wenn bessere, detailgenauere Grafik bei selber oder besserer Geschwindigkeit ...
Das bekommst du eben nicht durch Tesselation. Wenn die GPU die Leitung für derart detaillierte Polygonmodele hat, kann man diese auch gleich so detailliert verwenden, statt erst kleinere Polygonmodelle aus den Curved Surfaces zu errechenn um sie dann später wieder hochzurechnen. Deswegen hat sich TruForm auch nie durchgesetzt - es macht alte Spiele auf neuer Hardware (idR.) hübscher, aber mehr auch nicht.
 
Zurück
Oben