News Offiziell: „Fermi“ a.k.a. GT300

Status
Für weitere Antworten geschlossen.
WIESO sollten die das dann der Presse zeigen? und WIESO lese ich nichts von einer Fakekarte hier auf CB?

PS: Was ist eigentlich heute hier los? Alle beim Saufen aufm Wasen oder auf der Wiesn? Keine Nachrichten heute :heul:
 
mal ne ganz blöde Frage, die Teslakarten haben doch normal gar keinen Ausgang (DVI, VGA, etc.), oder?

Unbenannt.PNG

Quelle: http://www.pcgameshardware.de

nvidiafermiteslapcgh01.jpg
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
GodCast schrieb:
WIESO sollten die das dann der Presse zeigen? und WIESO lese ich nichts von einer Fakekarte hier auf CB?
Zwar nicht CB, aber techPowerUp:

NVIDIA 'Fermi', Tesla Board Pictured in Greater Detail, Non-Functional Dummy Unveiled

...

Looks like NVIDIA is ready with a working prototype against all odds, after all, doesn't it? Not quite. On close inspection of the PCB, it doesn't look like a working sample. Components that are expected to have pins protruding soldered on the other side, don't have them, and the PCB seems to be abruptly ending. Perhaps it's only a dummy made to display at GTC, and give an indication of how the card ends up looking like. In other words, it doesn't look like NVIDIA has a working prototype/sample of the card they intended to have displayed the other day.
Quelle
 
Marc_N es gibt leute die sehen sowas nicht! die gucken nur auf den Kühlkörper :) wenn du glück hast ändern sie wieder heimlich die Texte :) oder es kommt ein Update 3
 
Wie machen die dann mit Dummys dann ne Grafikvorführung+ den Vergleich??? (siehe u.a. obigen Beitrag v. IntelCyphe)
Ev. iss Magier David Copperfield wieder aktiv???
Erinnert mich mehr an: Entlarvte Magier - Uri Geller, David Copperfield , Criss Angel, als an ne Vorführung,
das ganze iss ja dann mehr ne Magiershow, statt ne Präsentation??? (ich ging früher schon nicht gern in nen Zirkus).
 
Zuletzt bearbeitet:
na dann kommt es darauf an was sie genau bei der Präsentation gesagt haben, trotzdem muss man nach den gründen fragen warum es ein dummy war.

die "nvidia rope-a-dope taktik"könnte man sich vorstellen
 
Noch 2 einträge dann sind wir bei der 700 Marke, hat das Forum einen neuen Rekord?
Eins hat Nvidia Geschaft und das ist aufsehenerregen.
 
der 5870er Faden hat weit über 1000 Beiträge

edit: über 1400
 
Zuletzt bearbeitet:
keine sau hat die hardware wirklich gesehen, sprich einen blick in das vorführsystem geworfen. da könnten genausogut 2x gtx295 drin gewerkelt haben um die demos vorzuführen oder es wurden videos mit developmentkarten gemacht und es gab gar keine live-vorführung. 1000 mögliche szenarios.
 
@GHad Das Problem ist einfach, dass man normalen Programmcode nicht beliebig parallelisieren kann. Viele Spiele schaffen es ja nicht einmal 4 Kerne auszulasten, wie soll das dann bei 512 Kernen funktionieren. Diese 4 CPU-Kerne sind außerdem noch hochoptimiert um aus dem Code das letzte bisschen Parallelität (ILP) herauszuquetschen, was den GPU Cores fast vollkommen fehlt.

Beispiel: Programm das 4 Threads auslasten kann und 64Bit Daten verwendet.

theoretisches Maximum CPU: 4 Kerne * 4 Op/Takt * 3 GHz = 48GOps
theoretisches Maximum GPU: 256 Kerne * 2 Op/Takt * 1,5GHz = 768Gops

Soweit erstmal eine klare Sache für die GPU, aber das ist eben nur ein theoretischer Maximalwert.

Annahme: die CPU schafft etwa 3 Ops pro Thread und Takt. Die GPU kommt auf etwa 2 Ops pro Thread und Takt (das ist ein optimistische Annahme für die GPU).

real CPU: 4 Kerne * 3 Op/Takt * 3GHz = 36GOps
real GPU: 8 Kerne * 1 Op/Takt * 1,5GHz = 12GOps.

Dabei sind viele Dinge, die Vorteile für die CPU-Architektur darstellen nicht berücksichtigt werden, z.B. das die durschnittliche Anzahl an Stall-Cycles durch Speicherzugriffe bei der CPU durch die großen Caches sehr viel niedriger liegen oder dass bedingte Sprünge bei einer GPU sehr viel mehr Zeit kostet als bei der CPU.

Das Hauptproblem ist also die mangelnde Parallelisierbarkeit von gewöhnlichem Programmcode, was dazu führt, dass die meisten Cores die meisten Zeit garnichts tun. Daher bringt einer Vervielfachung der Cores überhaupt nichts. Die einfachste Art um in diesem Bereich mehr Performance zu bekommen wäre das simple hochtakten. Alternativ reduziert man die Anzahl der Cores, gibt ihnen dafür mehr Optimierungen zur Ausnutzung von ILP mit. Dann hätte man Larabee.

Eine andere Methode ist, man nimmt sich einfach eine normale CPU und überlässt der einfach solche schlecht parallelisierbaren Programmabschnitte. Dann kommt man bei den CPU/GPU Kombos raus, die AMD/Intel planen.
 
Zuletzt bearbeitet:
Und es wird auch noch sehr lange dauern, bis Games von den 4 Kernen profitieren und die auch optimal nutzen! Die Spieleentwickler nehmen ja immer Rücksicht auf ältere Hardware(Mindestanforderungen z.B Pentium 4 oder halt PentiumD/ dualcore) und desshalb hat man Heutzutage zum Glück ewas zeit um seine CPU zu behalten. Anders sieht es mit der Grafikkarten aus. Bei spielen liegt ja auch die meiste Last auf den Grafikkarten und nicht so ( sehr) auf der CPU. Klar sollte es leistunbgsmäßig ausgeglichen sein, aber man hat glaube ich mehr davon, wenn man seine "alte" Grafikkarte gegen eine neue tauscht, als das man seine CPU tauscht. :) Oder seht ihr das anders?
 
bis die das wirklich bringen, gibts die hexa & octacores und dann haben wir wieder das problem. vielleicht bringt ja mal redmond ein os wo das besonders gut organisiert.
 
Die larrabee von intel wird auch noch so ne sache......wir werden sehen :)
Ergänzung ()

vlt wird die GPU alles verändern^^
 
Herrlich hier, richtig erheiternd ;)

Shurkien schrieb:
Ich tippe auf ca 100% Leistungssteigerung gegen die GTX285/HD5870, aber wurde hier ja schon oft gesagt

file.php


johnieboy schrieb:
war grad im HW-Luxx Forum und dort haben ein paar User etwas zu der von Nvidia präsentierten Karte herausgefunden.

Jen-Hsun Huang hat keinen Prototypen des Fermi gezeigt!

Hehe, danke für den link, so genau hab ich mir Bilder nicht angesehen.

Kasmopaya schrieb:
Habs ja gleich gesagt ATI und Enthusiast Features(zb. auch CFX) das passt einfach nicht zusammen...

MfG Kasmo

Ok, ist vielleicht nicht optimal, aber wo ist das Problem einen Monitor mit DisplayPort zu nehmen?

QX9770-Freak schrieb:
ich denke da wären 1 chip grakas ala nVidia besser, da es ja doch noch allehand multi gpu fehler gibt....

Warst du nicht der der sich in einem der ersten Parade-Fanboy-Geblaber-Posts geschrieben hat, er kauft sich sofort bei erscheinen dieser Karten 2 davon für SLI? Köstlich :cool_alt: Bissl weniger Spam tuts auch, so nebenbei.



Ach ja und bevor mir jetzt dann Leute vorwerfen ATI-Fanboy zu sein:
Komisch wieso hab ich dann in meinen Rechnern derzeit keine Einzige verbaut?
(GTX285, 88GTX, ION, 9400M, 7400M, VIA S3)
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben