• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Unreal Engine 3 Next-Gen Tech-Demo auf 3 GTX 580

I-HaTeD2 schrieb:
Sorry aber Dummkiddys wie euch sollte man manchmal die Meinung einfach verbieten. Da kommt eh nur Mist raus, inkl. Vorurteile zu Menschen die sie eh nicht kennen nur weil sie keine Lust haben sich was in den Hintern schieben zu lassen.
Wen bezeichnest du Hanswurst bitte schön als Dummkiddy? :rolleyes: Du spielst seit 15 Jahren? Glückwunsch und nun stell dir vor, ich auch. Genau genommen sind es sogar schon knappe 18 - '93 mit dem SNES angefangen. Und 15 Jahre PC-Only Zockertum lassen deinen Tellerrand dennoch nicht über jenen einer Untertasse hinauswachsen, wenn du nicht mal zu erkennen in der Lage bist, dass das Steuerungs-Handycap eines Dead Space zum Survival-Gamedesign dazugehört. Falls du Headshots am Fließband verteilen willst, dann zock Quake 3 ohne Sinn und Verstand von anno dazumal, dort bist du bei den trve Maus + Tastatur skill0r Nerds aufgehoben. :freak:
 
HABEN HABEN EINZELKIND ! ! ! !

Beeindruckend ! !

Erschreckend dass man früher noch Zwischensequenzen so geil fand die vorgerendert waren und heute sieht jedes Spiel in Echtzeit 100x besser aus!

Die Unreal Engine war von der Optik schon immer weit vorne dabei!
 
Tja, Techdemos - Ich erinnere nur mal an die damalige "Crysis-Techdemo" (war's 2006 ?)
diese Szene im Dschungel sah ja wohl um einiges geiler aus als im fertigen Spiel.

Gut - auch so und ohne Grafikmods gehört es nach wie vor mindestens unter die "TOP-5" der grafisch besten Spiele (zusammen mit Metro 2033, Devil May Cry 4, Dirt 2 und - was fällt euch noch so ein ? evtl. Bad Company 2, Uncharted 2, Killzone 3, Grand Tourismo 5 ? Die sehen besser aus als so manches PC-Spiel, traurigerweise :(:rolleyes:

Diese UT-Techdemo sieht jedenfalls auch in bewegten Bildern sehr beeindruckend aus (auch wenn 's nur abgefilmt ist).

Aber solange wir geneigten PC-Gamer mit Grafikkarten in 40 nm-Fertigung abgespeist werden, wird so eine Grafik auf "normalen" und selbst mit 2 starken Grakas im CF / SLI wohl niemals über die 25 FPS Hürde kommen.
 
Es zeigt sich halt wieder einmal das Crytek und Epic mit dem was in der Theorie möglich ist weit vor dem liegen was real machbar ist. Und am ende kann man es keien Rechte machen, bei Crysis 1 heult noch jeder das man das Spiel ja gar nicht auf hohen Einstellungen spielen kann und bei Crysis 2 heult jeder das man ja keinen großen Unterschied sehen würde. So langsam sollte man sich entscheiden, will man real spielbare Settings, oder Utopie damit man sich die neueste GPU für 500€ rechtfertigen kann?

Aber solange wir geneigten PC-Gamer mit Grafikkarten in 40 nm-Fertigung abgespeist werden

Abgespeist hört sich ja so an als hätte jemand da einen Plan gehabt um uns Gamer zu ärgern. Es gab nun mal nicht Genügend Nachfrage bei TSMC und GF für den 32nm Prozess und nur für einen verschwinden geringen Kundenstamm an Leuten die sich immer das beste vom besten hohlen müssen lohnte es sich nun mal nicht einen neuen Prozess einzuführen. Ist halt passiert, und am meisten ärgen dürfte das AMD, die in den letzten Jahren viel Investiert haben um beim Fertigungsprozess schneller zu sein als nV.
 
Zuletzt bearbeitet:
fr3sh schrieb:
Aber ehrlich gesagt: Wirklicher Fotorealismus wird nie zu schaffen sein, rein technisch schon nicht. Und das finde ich gut so. Muss ja nicht mit dem RL verschwimmen...

Wie kommst du darauf? Sobald die Renderer aus den 3D-Programmen (Max z.b.) in Echtzeit laufen haben wir Fotorealistische Grafik.

Du denkst das ist noch lange hin? Dann schau dir das hier an :D

ab Minute 6

Video
 
Zuletzt bearbeitet:
Huhamamba schrieb:
Wen bezeichnest du Hanswurst bitte schön als Dummkiddy? :rolleyes: Du spielst seit 15 Jahren? Glückwunsch und nun stell dir vor, ich auch. Genau genommen sind es sogar schon knappe 18 - '93 mit dem SNES angefangen. Und 15 Jahre PC-Only Zockertum lassen deinen Tellerrand dennoch nicht über jenen einer Untertasse hinauswachsen, wenn du nicht mal zu erkennen in der Lage bist, dass das Steuerungs-Handycap eines Dead Space zum Survival-Gamedesign dazugehört. Falls du Headshots am Fließband verteilen willst, dann zock Quake 3 ohne Sinn und Verstand von anno dazumal, dort bist du bei den trve Maus + Tastatur skill0r Nerds aufgehoben. :freak:

Oh man ...
Entschuldigen sie Mr. 1337HaXXoR das ich C64, Nes, SNES, Sega Mega Drive, Gameboy & Co. nicht auch dazu gezählt habe da es völlig andere Medien sind und waren. :rolleyes:

Man kann Balancing auch erreichen ohne dem Spieler künstlich Steine in den Weg zu legen die ein spielen unmöglich machen - möglicherweise wurdest du von von irgendwelchen "Pros" in deinen tollen Egoshootern aber wohl ständig so gebasht das du nun jedem der mehr kann als du irgendwelchen Scheiß an die Birne wirfst nur um dein nichtskönnen zu rechtfertigen. Du zockst wohl auch lieber Konsole und siehst Titel wie Crysis 2 als heiligen Gral an.

Aber kompensiere du ruhig deine Komplexe - bitte aber per PM. Der Mülleimer wird sich drüber freuen.

@TNM: Mag ja sein, nun render das ganze aber mal Bild für Bild zu einem Film zusammen. Dazu sind Lebewesen wie Menschen noch mal eine ganz andere Kategorie als Möbel & Co.
 
I-HaTeD2 schrieb:
@TNM: Mag ja sein, nun render das ganze aber mal Bild für Bild zu einem Film zusammen. Dazu sind Lebewesen wie Menschen noch mal eine ganz andere Kategorie als Möbel & Co.

Wenn mich eins nervt, dann wenn jemand kommentiert OHNE es sich angesehen zu haben.

Mach das mal, und dann 2. Versuch.
 
des video ruckelt ja schon ziemlich hin und wieder. spricht nicht gerade für die 3x 580
 
Hammergeile Engine !!

Bin ja derzeit selbst von der Bulletstorm Engine geflashed die ja auf Unreal basiert.
Warten wir mal 2 Jahre bis was feines zu der 3er entwickelt ist :evillol:
 
TNM schrieb:
Wenn mich eins nervt, dann wenn jemand kommentiert OHNE es sich angesehen zu haben.

Mach das mal, und dann 2. Versuch.

Ich habe das Video gesehen also wieso glaubst du argumentiere ich wohl so wie ich es tue? :freak:
 
Wenn's wie aus Eimern schüttet erst mal ne Fluppe anstecken -.- aaaaaaaaah

Aber Hauptsache "cool" rüber kommen...
 
TNM schrieb:
Wenn mich eins nervt, dann wenn jemand kommentiert OHNE es sich angesehen zu haben.

Mach das mal, und dann 2. Versuch.


also ich habe die vids auch gesehen und muss I-HaTeD2 zustimmen, wo in den beiden beispielen werden "filmreife"- animationen gezeigt und das auch noch von menschen bei denen jede bewegung individuell aussehen muss + jedes gesicht, körperhaltung und und und anders dargestellt wird?

bei den beispielen stösst die beste hardware schon an ihre grenzen. ich sage nicht das es unmöglich ist aber bis genau solche spiele rauskommen muss noch sehr viel in den nächsten 15-20 jahren im hardware bereich passieren....
 
Abgespeist hört sich ja so an als hätte jemand da einen Plan gehabt um uns Gamer zu ärgern. Es gab nun mal nicht Genügend Nachfrage bei TSMC und GF für den 32nm Prozess und nur für einen verschwinden geringen Kundenstamm an Leuten die sich immer das beste vom besten hohlen müssen lohnte es sich nun mal nicht einen neuen Prozess einzuführen. Ist halt passiert, und am meisten ärgen dürfte das AMD, die in den letzten Jahren viel Investiert haben um beim Fertigungsprozess schneller zu sein als nV.

Stimmt, "abgespeist" war falsch gewählt, was ich eigentlich damit sagen wollte ist, daß man mit einer 32-nm Fertigung schon jetzt sehr viel weiter hätte sein können, mehr Power aus einer GPU holen könnte, evtl sogar bei höherer Effizienz. Aber statt dessen gibt's immer nur wieder neue Grafikkarten, die nur unwesentlich schneller sind als die Vorgängerkarten, aber für die trotzdem unverhältnismäßig viel Kohle verlangt wird (HD 5870 -> HD 6870 -> HD 6950 etc)

Zum Thema Kundenstamm:
es scheint ja einen gewissen Markt für sehr leistungsvolle Grafikkarten zu geben. Und ich behaupte einfach mal, daß durchaus viele "Gamer" bereit sind mindestens 250 € oder mehr für eine Grafikkarte auf den Tisch zu blättern.
Jetzt stelle man sich mal vor, das eine GPU mit 32 nm Fertigung ca 30-50 % schneller ist als eine mit 40 nm Fertigung zum gleichen Preis, das wär doch ein riesen Fortschritt. Und nicht so wie jetzt, wo eine 350 € Graka nur so'n paar lächerliche "mehr-FPS" bringt als eine Karte, die 150 € günstiger ist.


Wenn's wie aus Eimern schüttet erst mal ne Fluppe anstecken -.- aaaaaaaaah

Tja, der Typ ist einfach sooo cool, das der Regen um ihn herum einen Bogen macht :D
 
Zuletzt bearbeitet:
naja irgendwo werden wir ja doch tatsächlich abgespeisst, ABER du kannst dich freuen... der nächste schritt heisst halt 28nm... ;) und nich 40-32-28
... vll. halten das leute für mehr abzocke wenns so wäre

stattdessen zocken se halt mim 40er ab un danach kommt das 28nm verfahren...

dieses jahr wirds ehh komplett düster mit neuen GPU's aussehen... wir bleiben bei 40nm und erst im bestenfall kommen wir im 4. Quartal zu den neuen 28nm... frühestens 2012 kommen dann Grafikkarten mit 28nm....

kannst dir dann im januar oder februar nen neuen PC bauen... ;) 22nm CPU 28nm GPU 25nm SSD ...
 
Ich find's allerdings doch recht beeindruckend, daß die es geschafft haben, einen einzelnen Grafikchip so schnell zu machen, wie 2 GPUs im CF einige Monate zuvor. (GTX 580 im Vergleich zur HD 5970)

Aber irgendwann ist mit Sicherheit die Leistungsgrenze dieser 40 nm Generation erreicht, es muss ja auch alles kühlbar sein und max. TDP-Vorgabe gibt's ja auch noch.
Spätestens nach der nächsten Grafikkartengeneration wird man auf eine 32 oder 28 nm Fertigung umstellen müssen, falls man überhaupt noch mal eine angemessene Leistungssteigerung erreichen will.

Denn irgendwann wird sich auch der größte Grafikkarten-Enthusiast fragen, warum er überhaupt noch ne neue Karte kaufen soll, wenn die alte kaum spürbar langsamer ist. (was ja heute schon der Fall ist :rolleyes:).

Und da Nvidia und AMD sicherlich auch in Zukunft noch kräftig Grafikkarten verkaufen wollen, schneiden sie sich eigentlich nur ins eigene Fleisch, wenn sie auf dieser 40 nm Fertigung beharren wie ein sturer Bock, aber doch nichts wirklich besseres auf den Markt bringen/werfen.

Wobei man noch eine andere Frage berücksichtigen muss:

wofür benötigt man solche Karten überhaupt, wenn der grafische Fortschritt in Spielen seit Jahren (!) eh nur auf der Stelle steht ?
Es gibt doch wirklich nur ein ganz paar Ausnahmen, für die praktisch nichts schnell genug sein kann: Crysis, Metro 2033, ArmA, WoW auf höchster Grafikstufe (Schattendarstellung braucht in Städten viiieeel Leistung ;-)) und was fällt euch noch so ein an Graikfressern ?
 
Zuletzt bearbeitet:
Hallo

@I-HaTeD2

Sorry aber Dummkiddys wie euch sollte man manchmal die Meinung einfach verbieten.

Aber kompensiere du ruhig deine Komplexe - bitte aber per PM. Der Mülleimer wird sich drüber freuen.

Nach deiner beachtlichen Daddelerfahrung wirds Zeit die Ausdrucksweise zu verbessern und das geforderte Maß an Toleranz nicht nur auf dich, sondern auch auf andere zu projizieren.

Ansonsten ist es ein leichtes dir deine Meinung ebenfalls zu verbieten.

mfg
 
Ich finde sowie so das Unreal immer ne sehr gute Grafik hatte die auch nicht so viel Leistung gekostet hatte! Auch wenn sie das mit drei 580ern Laufen hatte in den Movie.
 
das geheulte nach der Techdemo wird wieder groß sein wenn die Games dann so Scheisse ausssehen wie einst Unreal Tournament 3 (Unreal Engine 3)..
da waren auch alle hin und weg als die ersten Screenshoots gezeigt wurden.. und das fertige Game sieht grotte aus.. kein vergleich mehr zur Techdemo..die ganzen Unrealengines taugen nix.. war schon immer so und wird immer so sein.. ich sag nur Rainbow Six: Vegas 2 :freak:
 
Zuletzt bearbeitet von einem Moderator:
Sidewinder9000 schrieb:
Ich find's allerdings doch recht beeindruckend, daß die es geschafft haben, einen einzelnen Grafikchip so schnell zu machen, wie 2 GPUs im CF einige Monate zuvor.

wofür benötigt man solche Karten überhaupt, wenn der grafische Fortschritt in Spielen seit Jahren (!) eh nur auf der Stelle steht ?

Eigentlich trifft ersteres auf ziemlich jede neue Generation zu weshalb SLI & CF eigentlich in den seltensten Fällen lohnt.

Und wir sind allgemein an einen Punkt an dem weitere grafische Verbesserungen eher Detailsachen sind und dabei trotzdem haufenweise Rechenleistung verbraten (Vergleichsweise so wie der Unterschied zwischen 8AA & 16AA, zumindest als Beispiel).

Ölpest schrieb:
Hallo

@I-HaTeD2

Nach deiner beachtlichen Daddelerfahrung wirds Zeit die Ausdrucksweise zu verbessern und das geforderte Maß an Toleranz nicht nur auf dich, sondern auch auf andere zu projizieren.

Ansonsten ist es ein leichtes dir deine Meinung ebenfalls zu verbieten.

Ich bin nicht hier um ein gutes Beispiel abzugeben oder die Elternrolle für andere User zu übernehmen, wenn mir jemand Quer kommt kann dieser auch erwarten das ich dementsprechend Antworte und ich lasse mir nicht gerne Dinge anheften die nicht wahr sind. Wie mans in den Wald ruft so kommt es eben zurück (inkl. Echo).

Das ich dafür evt. eine Verwarnung kassiere kann vorkommen, bringt erhitzte Gemüter aber ebenso gut wieder auf angenehme Temperaturen (sofern nicht eh schon geschehen).

@Ctrl: Ernsthaft?
Also ne, UT hatte bisher immer einen Vorteil: Es lief performant. Aber da heulen dann alle das es Kacke ausschaut und eben nicht das was die Engine könnte. Nutzt man das und bekämen wir Spiele wo man TrippleSLI mit 3 High End Karten benötigt würde man ebenso heulen weil man es ja nicht spielen kann.
 
Sieht sehr gut aus! Da müssen wir wohl noch 3-4 Graka Generationen warten ^^.
 
Zurück
Oben