News Offiziell: „Fermi“ a.k.a. GT300

Status
Für weitere Antworten geschlossen.
@ghad
rein theoretisch müsste das wirklich so sein, nur wann das sen wird ist eine frage.
fakt ist, dass
-die graka extrem viel strom verbrauchen wird
-extrem heiß werden wird, folglich also auch sehr laut
-groß
-teuer


ich schätze mal das die graka 2010 rauskommen wird
1oder 2. quartal
 
Bin mir da nicht sicher, weil ich mich in CUDA und der Programmierung von C++ nicht auskenne. Sollte mal ein CUDA Experte beantworten
 
@TigerRC

ich meine mal irgendwo gelesen zu haben, dass MGPU Systeme sich häufig "gegenseitig im Weg stehen" soll heißen das es einen Performance Verlust gibt. Weiß nichtmehr wo ich das gelesen hatte.....hmm :)
 
sollte die entwicklung weiter gehen, dann werden wir bald einzigartige grafik besonders im vegetations bereich sehen.
jetzt müsste die die graka nur noch programmieren können.
 
Dadurch dass die meisten Spiele in C++ geschrieben werden und (zum grösten Teil) nur für verschiedene Plattformen kompiliert werden, wäre es doch möglich eine GrafikEngine nativ auf der Grafikkarte laufen zu lassen, so dass Shader ohne jeglichen Umweg über PCIe oder CPU an Shader weitergegeben werden könnten. Sicherlich würde das Ausführen der Engine selbst auch Shader verbrauchen, allerdings sollte sich das doch prima optimieren lassen. Was mein ihr?
Theoretisch möglich, Fermi würde das Spiel dann 100% rulorn, aber welche Spieleschmiede wird dir für 50-60% Marktanteil sowas schreiben für teuer Millionen?
Aber sieht man mal, ganz neue Wege und Optionen tun sich auf. ATI Fans fangt schon mal an zu beten. :D

Ich finds grade net, aber es gab mal ein Bild von einem PC in einem Forschungszentrum. Dort rechneten 4x 98GTX2 mit einer rechenleistung von 180 CPU-Cores... oder 4x180? Zumindest haben die sich dadurch einen großem aufwand und viel Platzt gespart. Strom natürlich auch.
Das hier? https://www.computerbase.de/forum/threads/programme-die-mit-der-gpu-rechnen.426771/#post-4303110
Ansonsten gibts in der Forschung keine µRuckler :king:
 
Zuletzt bearbeitet:
Nevermore4ever schrieb:
Hier wird behauptet, in sechs Jahren seien die GPUs 570 mal so leistungsfähig wie heute. Sagen wir, das sind sieben Jahre nach dem GT200.

Also ist 570 = 1*(x^7) .
Also ist x = 570^(1/7). Das sind etwa 2,476.
Ist die Leistung eines GT200 gleich 1, so sollte ein Jahr später also ein 2,476 mal so leistungsfähiger Chip kommen, zwei Jahre später ein 6,1 mal leistungsfähigerer Chip, drei Jahre später ein ca. 15 mal so leistungsfähiger Chip usw. (x^1, x^2, x^3...).

Rein theoretisch natürlich, falls die von mir angenommene Beziehung stimmt. Ob das so wird?:king:

Computerbase (und viele andere Redaktionen) haben da was missverstanden. Huang ging in seiner Präsentation von einer Steigerung der Rechenleistung um 50% pro Jahr aus: http://blogs.nvidia.com/ntersect/2009/08/hot-chips-2009-keynote-by-jen-hsun-huang.html.
Auf den Faktor 570 kommt man, wenn man 1,5^6 (Steigerung der GPU-Leistung in 6 Jahren) mit einem Faktor 50 multipliziert, der dem Vorteil einer heutigen GPU gegenüber einer heutigen CPU entspricht.
 
Von der leistung her könnten GPU die Cpus glatt ablösen! :) Wenn man mal eine 280GTX und einen Aktuellen Quad gegenüber stellt und das selbe programm berechnen ließe, dann würde 280GTX ganz klar gewinnen ;)
Ergänzung ()

MIt einem RIESIEGEN Vorsprung^^
 
tja da wird intels idee, die grafikeinheit in den cpu zu integrieren wohl nur für office geeigenet sein, naja war ja eigentlich vonj anfang an klar.
cpus sind eben noch leichter programmierbar, aber das wird sich langsam ändern, sodass cpus nur noch neensächtlich werden
 
Das stimmt allerdings. Die CPU beherscht ganz andere Befehlsformen und kann sie gan anders umsetzten als eine GPU^^ Aber schon enorm wenn man sich das einmal wegdenkt und nur einmal die Performance beachtet:)
 
Warum nicht als OpenSource entwickeln. Kann ja als Pong, Nintendo oder TextEngine anfangen und dann Schritt für schritt besser werden so mit fraktalem Code sppäter und so...

OSCuda Engine One - The first OpenSource native 3D Grafics Engine devolpend in OpenSource

Greetz,
GHad

PS: Mich persönlich als Java Entwickler reizt die Möglichkeit Java nativ auf Fermi laufen zu lassen extrem (lt. Heise Artikel). Aber leider denke ich, dass die Karte *nur* zum Entwickeln für mich leider etwas teuer ist, wollte mir die HD5850 Richtung Weihnachten holen, wenn die bei 150€ angekommen ist und bis NVidia eine Fermi-Karte in dem Preisbereich hat, wird eher Ostern. Solange mag ich eigentlich nicht warten.
 
theorist schrieb:
Computerbase (und viele andere Redaktionen) haben da was missverstanden. Huang ging in seiner Präsentation von einer Steigerung der Rechenleistung um 50% pro Jahr aus: http://blogs.nvidia.com/ntersect/2009/08/hot-chips-2009-keynote-by-jen-hsun-huang.html.
Auf den Faktor 570 kommt man, wenn man 1,5^6 (Steigerung der GPU-Leistung in 6 Jahren) mit einem Faktor 50 multipliziert, der dem Vorteil einer heutigen GPU gegenüber einer heutigen CPU entspricht.

Ah, das ist interessant (und ergibt auch etwas vernünftigere Werte). :D
 
wahrscheinlich bestehen bereits bestechungsaktionen seit langen bei intel/amd auf der liste.
man muss ja eigentlich svchon zugeben, dass jede konfig mit dem cpu anfängt.
 
Also ich kann GHad wirklich nur zustimmen, auch wenn ich nur etwa die ersten 10 gelesen habe und dann noch mal die aktualisieren letzten posts. Nirgends sind diese Flamewars so groß und ausgeprägt wie hier, wobei man sagen muss zu später Stunde werden die Beiträge etwas qualitativ hochwertiger, wahrscheinlich weil die Schüler dann nicht mehr in der Überzahl sind :p

Was mich aber mal viel mehr interessieren würde, irgendwann hat mal jemand reingewurfen das der GT300 oder nennen wir ihn Fermi keine Tesselationseinheiten besitzt, natürlich ohne Quellen zu nennen wie es in einen Fanboywar üblich ist. Dabei sind doch Tesselationseinheiten für DirectX11 Pflicht und da führt sicherlich auch keine Softwareemulation vorbei. Zumal es Marketingtechnisch ein Disaster wäre gegenüber ATI die diese Einheiten bekanntlich schon seit dem R600 verbauen!
Drum würde ich gerne mal eine Quelle sehen die das belegt, weil ich mir das eigentlich nicht vorstellen kann.
Ich glaube eher wie mehrfach geschrieben das die Vorstellung eher auf CUDA und GPU Computing abzielte und deswegen nicht viel in Sachen Vorteile der Architekturänderung inkl Tesselation in Hinblick auf die Spiele (-performance) gesagt wurde.

mfg,
Madbomb
 
Zuletzt bearbeitet:
theorist schrieb:
die Single-Precision-Rechenleistung wird nicht so stark ansteigen (von derzeit knapp 1,1 TFlops auf vielleicht 1,7 TFLops).

soweit ich weiss bleiben die single ops per clock per shader gleich. somit wären's dann 512 ops pro clock vs 240 beim vorgänger, 1700mhz angepeilter shadertakt vs 1475 auf der gtx285.. sind wir auf knapp 2,5facher leistung

abgesehen davon die neue threading engine, parallele abarbeitung gegenüber serieller, die neue cache struktur, etc ...
 
Thread-Camping :-)

Ich weiß auch nicht wo ichs genau gelesen habe, aber es wird vermutet, dass die sog. Special Function Units diese Aufgabe übernehmen könnten, aber nix genaues weiß man nicht.

Greetz,
GHad
Ergänzung ()

@stoneeh: imho sind einige der verbessungen in bezug auf GPGPU eher hinderlich für die Spieleperformance, deshalb gehe ich auch von max. 125% zur GTX285 aus. Man weiß es einfach nicht

Greetz,
GHad
 
stoneeh schrieb:
soweit ich weiss bleiben die single ops per clock per shader gleich. somit wären's dann 512 ops pro clock vs 240 beim vorgänger, 1700mhz angepeilter shadertakt vs 1475 auf der gtx285.. sind wir auf knapp 2,5facher leistung

abgesehen davon die neue threading engine, parallele abarbeitung gegenüber serieller, die neue cache struktur, etc ...

Dann wirds aber knapp mit deiner unfehlbaren Glaskugel(übrigens sehr genau bis jetzt). 100% -200% würd ich mal ins blaue schätzen. :jumpin:
 
8Pins klingt für mich grade irgendwie als ob das Teil ne menge Strom ziehen will ... Leistung Satt ok aber nicht auf kosten von noch mehr Verbrauch.

Kann man sowas überhaupt noch an ein NT was keine 8 Pins hat anschließen? Ich meine wie viel Ampere will das Teil denn haben?

Ansonsten dürfte das ziemlich teuer werden aber wenn es ähnlich dem G80 ein Erfolg wird dürften sich da auch attraktivere Karten schnell blicken lassen.

Mal abwarten ...
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben