NVIDIA's Kepler Effizienz durch neue 28nm (HKMG) Process Technology erklärt

HPC Master schrieb:
BTW: Alle zukünftigen Games die auf der UnrealEngine 3 oder 4 basieren werden, nutzen nur so zur Info, Nvidia's GPGPU Technologie => in Form von CUDA & Physx APEX SDK für kommende Physik Berechnungen auf CPU und GPU.
Aha. Wie lange gibt es die Unreal 3 Engine mit ihrem PhysX Support? Gemessen am allgemeinen Entwicklungstempo schon sehr lange. Wie viele Spieleentwickler haben diesen Support in ihren Produkten genutzt? Kaum einer.
HPC Master schrieb:
Die GTX680 bietet in etwa die selbe Compute Power wie die GTX580...
Nicht mal ansatzweise, wie mein Test mit dem FAH V7 GPU Client und der Vergleich mit den Ergebnissen meiner alten GTX 580 unter selbiger Software gezeigt hat. Gleiches Ergebnis beim OpenCL Benchmark, auch da wird die GTX 680, zumindest mit den aktuellen Treibern, von der GTX 580 deklassiert.
Von der mit aktuellen Treibern unterirdischen Leistung bei allen Pre DX10 APIs wollen wir erst gar nicht anfangen, wobei die kein Problem ist, weil die entsprechenden Spiele auch nicht den Leistungshunger aktueller Spiele haben.
Daß ich trotzdem 2 680er habe, liegt ganz einfach daran, daß es derzeit keine Alternative gibt, die bei Spielen, die mich interessieren, so eine brachiale Leistung hat und gleichzeitig Dank der geringen Leistungsaufnahme so einfach zu kühlen ist.
 
@frankpr

Diverse Standalone Konsolen-Versionen basierenten schon im Jahre 2005 auf PhysX SDK (bestimmte Spiele des PS3
und Wii Start-up-Linie nutzten PhysX SDK), aber der größte Teil der Konsole Titel setzten immer noch auf die allseits bewährte UnrealEngine 3.

platform_distribution_graph.jpg


Phobos1083 schrieb:
Du scheinst einfach nicht verstehen zu wollen, und informiert bist du auch nicht ;)
CUDA ist eine tolle Sache, jedoch ist die NV Exklusivität auch bald Geschichte.

Kannste gerne hier nachlesen und Deine Bildungslücke betreffen "Nvidia's CUDA Technologie" ein wenig schliessen...
HPC Master schrieb:

DU und die Ersteller beider Quellen "Heise & PCGH" haben nicht verstanden, dass es sich nur um den "CUDA Compiler" handelt - und nicht um Nvidia's CUDA SDK Bibliotheken an sich ;o) Also kannst Du noch Jahrzehtelang auf allfällige "AMD CUDA Treiber" warten!

All Deine Aussagen sind völliger Quatsch... informiere Dich erst mal besser über CUDA & OpenCL und die komplexen Zusammenhänge => AMD kann nicht einfach auf CUDA setzen, weil ihre Hardware ein bisschen anders funktioniert und Nvidia dann auch AMD bei "womöglich nicht funktionierenden Treibern" unterstützen müsste.... dass wird so
"NIE" eintreten und deshalb wird AMD weiter mit dem offenen OpenCL & AMD's APP SDK v.2.6 (seit Dezember'11
nicht mehr aktualisiert)
abgeschlagen herumwursteln und auf irgendwelche baldige OpenCL Implementation hoffen.

BTW: Das kommende CUDA 5 als HPC Instustriestandard (5 Jahre) ist keineswegs bedroht, sondern wird sich weiter massiv und noch verstärkt vor OpenCL (bei dem Nvidia von Anfang an mitdabei war) festigen. siehe OpenACC

http://www.youtube.com/watch?v=NB9jlg4Bs5c
http://www.youtube.com/watch?v=PwUAv-SSZqw
http://www.youtube.com/watch?v=IxJtdCOmyEM
OpenCL:

"In Zusammenarbeit mit den Firmen AMD, IBM, Intel und Nvidia wurde der erste Entwurf ausgearbeitet und schließlich von Apple bei der Khronos Group zur Standardisierung eingereicht. Die Spezifikation für OpenCL 1.0 wurde am 8. Dezember 2008 veröffentlicht. Am 16. November 2011 folgte die Spezifikation 1.2 mit Verbesserungen, die zu 1.0 abwärtskompatibel bleibt."

Oak Ridge National Laboratory HPC, setzt 2012 in Q3 auf 18'000 neue Nvidia Tesla Kepler-GPU's

NVIDIA to launch 7-Billion Transistor Kepler GPGPU "Tesla" Boards on May 14?
NextGen Kepler mit 3/4/6/8/12/16GB of rock-solid GDDR5 Memory mit Error Checking und Correction!
 
Zuletzt bearbeitet:
Hi allso dieser Tread besteht nur aus MÜLLLLLLLLL. Die eine reden AMD gut die andern Nvidia.
Ich hatte ATI wie auch Nvidia und jeder muß selbst endscheiden was er möcht,
Ich habe eine GTX 680 und bin sehr zufrieden.
Hatte mit ATI nur Probleme und bin vor ca. 3 Jahren wieder zu Nvidia , und ich muß sagen die machen was.
Keppler ist nicht gleich Femi glaub nicht alles was im Inet steht.

Nvidia: Mehr Powerwie AMD
weniger Strom verbrauch
bessere Treiber

AMD: Genug Power
mehr Strom verbrauch
F..... Treiber ist so seit dem 8.9 CCC

So aber jeder sollte sich sein Favo holen sei es Nvidia oder AMD jeder muß selbst entscheiden.
MFG
 
deathrabbit schrieb:
Hi allso dieser Tread besteht nur aus MÜLLLLLLLLL. Die eine reden AMD gut die andern Nvidia.
Ich hatte ATI wie auch Nvidia und jeder muß selbst endscheiden was er möcht,
Ich habe eine GTX 680 und bin sehr zufrieden.
Hatte mit ATI nur Probleme und bin vor ca. 3 Jahren wieder zu Nvidia , und ich muß sagen die machen was.
Keppler ist nicht gleich Femi glaub nicht alles was im Inet steht.

Nvidia: Mehr Powerwie AMD
weniger Strom verbrauch
bessere Treiber

AMD: Genug Power
mehr Strom verbrauch
F..... Treiber ist so seit dem 8.9 CCC

So aber jeder sollte sich sein Favo holen sei es Nvidia oder AMD jeder muß selbst entscheiden.
MFG

:freak:

Muss ich mich dazu wirklich noch äußern ?
Leute lest doch mal die Beiträge, und versucht diese zu VERSTEHEN !!
Ich lobe AMD nicht über den grünen Klee, sondern führe nur Fakten auf.

@ HPC Master

Du disqualifizierst dich immer weiter als ernst zu nehmenden Diskussionspartner

Quelle: Heise

NVIDIAs CUDA-Technik bald auch für AMD-GPUs

NVIDIA hat anlässlich der hauseigenen Konferenz GTC in Peking den Quellcode seines auf dem LLVM-Projekt aufgebauten CUDA-Compilers veröffentlicht. Der speziell auf parallele GPU-Berechnungen ausgelegte Compiler ist Teil der CUDA-Entwicklungsplattform und soll die Technik für neue Programmiersprachen und alternative Prozessor-Architekturen zugänglich machen – darunter auch die Grafikprozessoren von AMD und Intel.

Der Compiler ist Teil der erst vor wenigen Tagen vorgestellten CUDA-Version 4.1, bei NVIDIA registrierte Entwickler erhalten kostenlos Zugriff auf den Quellcode. NVIDIA spricht davon, dass man die Plattform so weiter öffne und zitiert Sudhakar Yalamanchili, Professor am Georgia Institute of Technology und Leiter des Ocelot-Projektes, mit den Worten, dass die Zukunft der Computerwissenschaften plattformübergreifend sei und das CUDA-Projekt Entwickler auf verschiedenen Prozessor-Architekturen unterstützen würde – darunter namentlich AMD-GPUs und Intel-x86-CPUs.

Aktuell unterstützt das System die Entwicklung unter C und C++, eine Erweiterung der Portland Group (PGI) erlaubt auch Fortran als CUDA-Programmiersprache. Als Zielplattform kommen derzeit NVIDIAs eigene GPUs und x86-Intel-CPUs in Frage. Langfristig will NVIDIA mit der Offenlegung der Technik den Weg zum Exascale-Computig ebnen, sprich deren Einsatz auf Supercomputern und anderen Hochleistungsplattformen

Quelle: PCGH
Nvidia hat den Quellcode des aktuellen Compilers der CUDA-Version 4.1 veröffentlicht und gestattet registrierten Entwicklern kostenlosen Zugriff auf CUDA. Damit ist der Weg frei für neue Programmiersprachen und weitere Prozessoren, denn bisher unterstützt der Compiler nur bestimmte Nvidia-Chips (im Falle von Grafikkarten etwa alle Modelle ab der 8er-Serie).

Das könnte sich aber in naher Zukunft ändern, denn laut Sudhakar Yalamanchili, Professor des Georgia Institute of Technology, sei die Öffnung von CUDA ein wichtiger Schritt und das CUDA-Programm könne die Leistung vieler unterschiedlicher Prozessoren ausreizen, darunter AMD-GPUs und Intel-x86-CPUs [Anm.d.R.: oder deren Grafikeinheiten?]. Noch ist es zwar nicht so weit, aber dank des veröffentlichten Quellcodes könnten Radeons bald CUDA oder gar PhysX beherrschen - ohne Nachteile, da der Compiler-Text frei ist.

Soll ich dir noch mehr Quellen liefern ?
Oder schmeisst du selber mal die Suchmaschine deines Vertrauens an, und vergewisserst dich selber ?
 
Zuletzt bearbeitet:
Phobos1083 schrieb:
(Aquarium)

Natürlich, professionelle Redaktionen irren sich ALLE.
Du oh großer Meister bist der einzige der den absoluten Durchblick hat

Hiermit bin ich raus, da unterhalte ich mich lieber mit einer Scheibe Toastbrot.

Und du mein junger Padawan solltest dir ein neues Hobby zulegen, zum Beispiel in die Schule gehen.
Dort bringt man dir bei wie man Texte erfasst und versteht

JA, es betrifft eben nur Teile des "CUDA Compiler" Quellcodes, der nun auch alternative CPU, PPU & GPU's unterstützt!

=> Hast Du nicht die jeweiligen Forum-Kommentare zu diesen Artikel gelesen ?!?
 
Zuletzt bearbeitet:
HPC Master schrieb:
Diverse Standalone Konsolen-Versionen basierenten schon im Jahre 2005 auf PhysX SDK (bestimmte Spiele des PS3
und Wii Start-up-Linie nutzten PhysX SDK)
Wir reden hier von PC Grafik und PC Spielen, da sind Konsolen vollkommen irrelevant. Und wir reden von hardwarebschleunigtem PhysX, nicht der ruckeligen Krüppellösung auf der CPU. Die handvoll Spiele, die GeForce PhysX wirklich nutzen, ist da kaum erwähnenswert, obwohl viele die Unreal 3 Engine verwenden. Paradebeispiel RB6V, läuft unter Unreal 3 Engine, benutzt aber PhysX nicht, wie die allermeisten Spiele, die mit dieser Engine programmiert wurden.
 
Zuletzt bearbeitet:
Da hast Du recht, aber hab ja erwähnt das nur knapp 30 PC Game Titel die auf reine GPU / PPU PhysX setzten.

Ich wollte damit ja aufzeigen, dass eben durch die stetige Weiterentwicklung von Nvidia's CUDA & PhysX Technologie, jene fest etabliert ist und dadurch seine Berechtigung, sowohl im Spiele (UE3) als auch bei Workstation Hardware und schlussendlich auch auf dem HPC Markt (CUDA), nicht unverdient massiv festigen konnte. Jeder "auch Nvidia" fängt mal klein an, nur man muss eben auch beharrlich die stetige Entwicklung weiter vorantreiben.

Filme mit aufwendigen Cg Effekten wie bei Avatar, LOTR, StarWars, uvam. würden duch Weta, Industrial Light & Magic, Pixar, WDP, Sony etc. und ohne Top Digital Content Creation (DCC) Hardware (Tesla / Quadro) oder CUDA Technilogie von Nvidia deutlich ärmer aussehen. CUDA und APEX PhysX sind somit fester Bestandteil von DCC Software wei 3Ds Max, Maya, Adobe Creative Suite 6 usw. Somit kann ich auch klar darlegen, dass OpenCL alleine noch einen sehr langen schwierigen Weg vor sich hat. Egal wie "offen, flexibel und überall Einsetztbar" es sein soll.

http://www.youtube.com/watch?v=PQef_6gio14
http://www.youtube.com/watch?v=05AGnpb12TA
http://www.youtube.com/watch?v=L7r5mz9aTlA
 
Zuletzt bearbeitet:
HPC Master schrieb:
Filme mit aufwendigen Cg Effekten wie bei Avatar, LOTR, StarWars, uvam. würden duch Weta, Industrial Light & Magic, Pixar, WDP, Sony etc. und ohne Top Digital Content Creation (DCC) Hardware (Tesla / Quadro) oder CUDA Technilogie von Nvidia deutlich ärmer aussehen.

Bloss bloed, das die Pixar Renderfarm aus mehreren tausend-AMD Prozessoren besteht.

http://www.slashfilm.com/cool-stuff-a-look-at-pixar-and-lucasfilms-renderfarms/

Und auch WETA rendert nicht auf Grafikkarten sondern auf CPUs. Bestes Beispiel dafuer ist der Film Avatar.

http://jordanhall.co.uk/general-art...red-with-enormous-ubuntu-server-farm-4701468/


Hoer endlich auf deine Lügen zu verbreiten!
 
Es ging nicht nur ausschliesslich um das "Finale Rendern der Kinofilme", sondern um den ganzen Prozess der faszinierenden DCC Erstellung der CGI VFX Artists mit Autodesk's 3ds Max oder Maya, die eben auch auf Nvidia's CUDA Hardware wie Tesla & Quadro setzen und vertrauen. Auch Pixar setzt heutzutage nicht nur noch auf CPU's.

Mental Ray – Nvidia:

Mental ray is a production renderer developed by NVIDIA. As the name implies, it uses ray tracing to generate images. It is licensed to Autodesk and is therefore an option on programs such as Maya and 3ds Max. Autodesk is therefore NVIDIA’s biggest customer for mental ray, and mental ray is one of the most common renderers in the world. But NVIDIA also have other rendering solutions include GPU solutions – see below.

NVIDIA has done more than almost any other company to promote GPU rendering and its uses in a wide range of entertainment applications. Iray, from NVIDIA, is offered as both a GPU renderer and a cloud solution, distributed solution. iray targets interactive design, versus mental ray, which is focused on feature film and TV production.

It is hardware accelerated by Cuda but if not present still works on CPU and it is designed for physically-based photorealism.

Gary M Davis, Autodesk Senior Technical Specialist, Media & Entertainment, says: “iray is mostly known as a photoreal renderer for design viz but I’ve been challenged to show it in more entertainment uses and like it more every day. I just got set up with a Boxx workstation running NVIDIA’s Maximus GPU board(s) setup and it’s amazing what one PC can do.”

Davis expands further: “Technically NVIDIA Maximus is the pairing of a Quadro 6000 and a Tesla 2075 in one machine. Other combinations of cards can be done but these two have been branded “Maximus” for marketing purposes. Each offer 6gb of memory and that’s huge. 3ds Max can intelligently work with multiple GPU cards in user defined ways. For example, test renders can use a feature called Activeshade on one card that’s constantly rendering while the other maintains smooth viewport interaction for the user experience while modeling and lighting. Then when you’re ready to do a final production render you can enable all the Cuda cores on all GPU boards present.”

For example, unlike what would clearly happen with a CPU renderer, “Adding motion blur and/or depth of field using iRay doesn’t add render time. That’s pretty amazing and cool.”

Quicksilver

3ds Max comes with four renderers:

1. Scanline – CPU
2. mental ray – CPU
3. iRay – CPU and/or GPU.
4. Quicksilver – GPU requires DirectX Shader model 3.0 and is then hardware accelerated, great for fast turnaround of
non-photoreal images and quick interaction

comparison.jpg


Nvidia and Weta unveil PantaRay engine

http://www.youtube.com/watch?v=dyDQoXEBkGw
- Nvidia collaborates with WETA to accelerate Visual Effects for Avatar

- WETA FX /Jobs - Desired Skills: Experience with CUDA or OpenCL. /// WETA Digital Avatar

Solution: The benefits Weta achieved with the solution co-developed by NVIDIA Research’s Pantaleoni compelled them to further embrace GPU computing – the power of NVIDIA technology to perform massively parallel computing. NVIDIA ported Weta’s PantaRay engine to a CUDA-based GPU driven version that runs 25 times faster, utilizing an NVIDIA Tesla® S1070 GPU-based server instead of a CPU based server. “If we think about how long it would take to handle this much complexity with traditional methods, we’re probably close to 100 times faster,” said Sylwan.

Paramount's Erfolg mit NVIDIA und Weta Digital Panta Ray

1686_640.jpg


PantaRay sorgt für Lichtblicke - „Die Abenteuer von Tim und Struppi“

1.000 Mal mehr Rechenleistung

„Der Übergang zwischen Licht und Schatten, die Penumbra, ist sehr schwer zu berechnen.“ sagt Luca Fascione, Leiter der Abteilung Rendering Research bei Weta. „PantaRay hat einen wesentlichen Beitrag bei der Berechnung der Nuancen in den Lichtern und Schatten geleistet, die den Ton in diesem Film angeben. Ohne die Grafikprozessoren von NVIDIA wäre es uns sicher nicht möglich gewesen, die für den Film gewünschte Lichtqualität zu erzeugen.“ Fascione fügt hinzu, dass durch Ray Tracing erzeugte Schatten 100 bis 1.000 Mal mehr Rechenleistung als herkömmliche Shadow-Map basierte Lösungen erfordern.

PantaRay

Die Zusammenarbeit von Weta und NVIDIA begann schon vor drei Jahren, um PantaRay zu entwickeln – eine Ray-Tracing-Softwarelösung, die auf die professionellen Grafikprozessoren von NVIDIA in Wetas Rendering-Pipeline setzt, um eine schnelle und dynamische Berechnung der Bild-basierten Lichteffekte zu ermöglichen. Das Tool – das erstmals in „Avatar“ und vor kurzem auch in „Planet der Affen: Prevolution“ zum Einsatz kam – wurde für „Die Abenteuer von Tim und Struppi“ weiterentwickelt, um Ray Tracing-Schatten sowohl von kleinen als auch von großen Lichtquellen zu berechnen – beispielsweise von Fenstern und Kronleuchtern, die weichere Schatten werfen.

Prometheus - by Ridley Scott (Alien) / WETA FX Studio's "Big things - have small beginnings" ;o)

http://www.youtube.com/watch?v=N0WUpsErUBA
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Ist Werbung nicht eigentlich unerwünscht hier?
HPC Master, arbeitest Du für NVidia?
 
Zurück
Oben