Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Offiziell: „Fermi“ a.k.a. GT300
- Ersteller Volker
- Erstellt am
- Zur News: Offiziell: „Fermi“ a.k.a. GT300
- Status
- Für weitere Antworten geschlossen.
Raptor2063
Captain
- Registriert
- Apr. 2009
- Beiträge
- 3.241
mal ne ganz blöde Frage, die Teslakarten haben doch normal gar keinen Ausgang (DVI, VGA, etc.), oder?
Quelle: http://www.pcgameshardware.de
Quelle: http://www.pcgameshardware.de
Zuletzt bearbeitet:
IntelCyphe
Lieutenant
- Registriert
- Aug. 2007
- Beiträge
- 571
Habt ihr das schon gesehen? http://www.youtube.com/watch?v=6X8QutIg6z0&feature=related
oder das? http://www.youtube.com/watch?v=79mvSWRocq4
oder das ist auch cool :-) http://www.youtube.com/watch?v=Ds8NjUslrwM&feature=related
oder das? http://www.youtube.com/watch?v=79mvSWRocq4
oder das ist auch cool :-) http://www.youtube.com/watch?v=Ds8NjUslrwM&feature=related
Zuletzt bearbeitet:
White_Eagle
Lt. Commander
- Registriert
- Okt. 2006
- Beiträge
- 1.775
Tatsache, hab jetzt leider meinen schönen Beitrag gelöscht, Mist.
aber hier Bilder in sehr Groß:
das Bild ohne Leiterbahnen -> http://www.pcpop.com/doc/pic/001238704.html
im unteren Teil, links Bilder zum durchklicken
http://www.pcpop.com/doc/pic/001238705.html
PS. ja @IntelCyphe, hatte ich gestern schon gesehen, da iss irgend nen Link, auf der Seite dort + Bilder:
Nvidias Next-Gen Compute-Architektur Geforce G300-Fermi: Bilder der Raytracing- und Physik-Demos plus neue Kartenfotos
aber hier Bilder in sehr Groß:
das Bild ohne Leiterbahnen -> http://www.pcpop.com/doc/pic/001238704.html
im unteren Teil, links Bilder zum durchklicken
http://www.pcpop.com/doc/pic/001238705.html
PS. ja @IntelCyphe, hatte ich gestern schon gesehen, da iss irgend nen Link, auf der Seite dort + Bilder:
Nvidias Next-Gen Compute-Architektur Geforce G300-Fermi: Bilder der Raytracing- und Physik-Demos plus neue Kartenfotos
Zuletzt bearbeitet:
Sgt.Speirs
Commander
- Registriert
- Mai 2007
- Beiträge
- 2.415
Die Frage ist nur wo. Single-Precision, Double-Precision, CUDA oder doch in Spielen?BLaKeDJ06 schrieb:Fakt ist der GT300 wird definitiv schneller wie die neu erschienenden ATI Karten.
Zwar nicht CB, aber techPowerUp:GodCast schrieb:WIESO sollten die das dann der Presse zeigen? und WIESO lese ich nichts von einer Fakekarte hier auf CB?
QuelleNVIDIA 'Fermi', Tesla Board Pictured in Greater Detail, Non-Functional Dummy Unveiled
...
Looks like NVIDIA is ready with a working prototype against all odds, after all, doesn't it? Not quite. On close inspection of the PCB, it doesn't look like a working sample. Components that are expected to have pins protruding soldered on the other side, don't have them, and the PCB seems to be abruptly ending. Perhaps it's only a dummy made to display at GTC, and give an indication of how the card ends up looking like. In other words, it doesn't look like NVIDIA has a working prototype/sample of the card they intended to have displayed the other day.
White_Eagle
Lt. Commander
- Registriert
- Okt. 2006
- Beiträge
- 1.775
Wie machen die dann mit Dummys dann ne Grafikvorführung+ den Vergleich??? (siehe u.a. obigen Beitrag v. IntelCyphe)
Ev. iss Magier David Copperfield wieder aktiv???
Erinnert mich mehr an: Entlarvte Magier - Uri Geller, David Copperfield , Criss Angel, als an ne Vorführung,
das ganze iss ja dann mehr ne Magiershow, statt ne Präsentation??? (ich ging früher schon nicht gern in nen Zirkus).
Ev. iss Magier David Copperfield wieder aktiv???
Erinnert mich mehr an: Entlarvte Magier - Uri Geller, David Copperfield , Criss Angel, als an ne Vorführung,
das ganze iss ja dann mehr ne Magiershow, statt ne Präsentation??? (ich ging früher schon nicht gern in nen Zirkus).
Zuletzt bearbeitet:
keine sau hat die hardware wirklich gesehen, sprich einen blick in das vorführsystem geworfen. da könnten genausogut 2x gtx295 drin gewerkelt haben um die demos vorzuführen oder es wurden videos mit developmentkarten gemacht und es gab gar keine live-vorführung. 1000 mögliche szenarios.
@GHad Das Problem ist einfach, dass man normalen Programmcode nicht beliebig parallelisieren kann. Viele Spiele schaffen es ja nicht einmal 4 Kerne auszulasten, wie soll das dann bei 512 Kernen funktionieren. Diese 4 CPU-Kerne sind außerdem noch hochoptimiert um aus dem Code das letzte bisschen Parallelität (ILP) herauszuquetschen, was den GPU Cores fast vollkommen fehlt.
Beispiel: Programm das 4 Threads auslasten kann und 64Bit Daten verwendet.
theoretisches Maximum CPU: 4 Kerne * 4 Op/Takt * 3 GHz = 48GOps
theoretisches Maximum GPU: 256 Kerne * 2 Op/Takt * 1,5GHz = 768Gops
Soweit erstmal eine klare Sache für die GPU, aber das ist eben nur ein theoretischer Maximalwert.
Annahme: die CPU schafft etwa 3 Ops pro Thread und Takt. Die GPU kommt auf etwa 2 Ops pro Thread und Takt (das ist ein optimistische Annahme für die GPU).
real CPU: 4 Kerne * 3 Op/Takt * 3GHz = 36GOps
real GPU: 8 Kerne * 1 Op/Takt * 1,5GHz = 12GOps.
Dabei sind viele Dinge, die Vorteile für die CPU-Architektur darstellen nicht berücksichtigt werden, z.B. das die durschnittliche Anzahl an Stall-Cycles durch Speicherzugriffe bei der CPU durch die großen Caches sehr viel niedriger liegen oder dass bedingte Sprünge bei einer GPU sehr viel mehr Zeit kostet als bei der CPU.
Das Hauptproblem ist also die mangelnde Parallelisierbarkeit von gewöhnlichem Programmcode, was dazu führt, dass die meisten Cores die meisten Zeit garnichts tun. Daher bringt einer Vervielfachung der Cores überhaupt nichts. Die einfachste Art um in diesem Bereich mehr Performance zu bekommen wäre das simple hochtakten. Alternativ reduziert man die Anzahl der Cores, gibt ihnen dafür mehr Optimierungen zur Ausnutzung von ILP mit. Dann hätte man Larabee.
Eine andere Methode ist, man nimmt sich einfach eine normale CPU und überlässt der einfach solche schlecht parallelisierbaren Programmabschnitte. Dann kommt man bei den CPU/GPU Kombos raus, die AMD/Intel planen.
Beispiel: Programm das 4 Threads auslasten kann und 64Bit Daten verwendet.
theoretisches Maximum CPU: 4 Kerne * 4 Op/Takt * 3 GHz = 48GOps
theoretisches Maximum GPU: 256 Kerne * 2 Op/Takt * 1,5GHz = 768Gops
Soweit erstmal eine klare Sache für die GPU, aber das ist eben nur ein theoretischer Maximalwert.
Annahme: die CPU schafft etwa 3 Ops pro Thread und Takt. Die GPU kommt auf etwa 2 Ops pro Thread und Takt (das ist ein optimistische Annahme für die GPU).
real CPU: 4 Kerne * 3 Op/Takt * 3GHz = 36GOps
real GPU: 8 Kerne * 1 Op/Takt * 1,5GHz = 12GOps.
Dabei sind viele Dinge, die Vorteile für die CPU-Architektur darstellen nicht berücksichtigt werden, z.B. das die durschnittliche Anzahl an Stall-Cycles durch Speicherzugriffe bei der CPU durch die großen Caches sehr viel niedriger liegen oder dass bedingte Sprünge bei einer GPU sehr viel mehr Zeit kostet als bei der CPU.
Das Hauptproblem ist also die mangelnde Parallelisierbarkeit von gewöhnlichem Programmcode, was dazu führt, dass die meisten Cores die meisten Zeit garnichts tun. Daher bringt einer Vervielfachung der Cores überhaupt nichts. Die einfachste Art um in diesem Bereich mehr Performance zu bekommen wäre das simple hochtakten. Alternativ reduziert man die Anzahl der Cores, gibt ihnen dafür mehr Optimierungen zur Ausnutzung von ILP mit. Dann hätte man Larabee.
Eine andere Methode ist, man nimmt sich einfach eine normale CPU und überlässt der einfach solche schlecht parallelisierbaren Programmabschnitte. Dann kommt man bei den CPU/GPU Kombos raus, die AMD/Intel planen.
Zuletzt bearbeitet:
QX9770-Freak
Lt. Junior Grade
- Registriert
- Okt. 2009
- Beiträge
- 261
Und es wird auch noch sehr lange dauern, bis Games von den 4 Kernen profitieren und die auch optimal nutzen! Die Spieleentwickler nehmen ja immer Rücksicht auf ältere Hardware(Mindestanforderungen z.B Pentium 4 oder halt PentiumD/ dualcore) und desshalb hat man Heutzutage zum Glück ewas zeit um seine CPU zu behalten. Anders sieht es mit der Grafikkarten aus. Bei spielen liegt ja auch die meiste Last auf den Grafikkarten und nicht so ( sehr) auf der CPU. Klar sollte es leistunbgsmäßig ausgeglichen sein, aber man hat glaube ich mehr davon, wenn man seine "alte" Grafikkarte gegen eine neue tauscht, als das man seine CPU tauscht. Oder seht ihr das anders?
White_Eagle
Lt. Commander
- Registriert
- Okt. 2006
- Beiträge
- 1.775
PC-Aufbau mit 3 TFT? -> Heavy Weapons Guy Build Gaming PC [HD]
QX9770-Freak
Lt. Junior Grade
- Registriert
- Okt. 2009
- Beiträge
- 261
Die larrabee von intel wird auch noch so ne sache......wir werden sehen
vlt wird die GPU alles verändern^^
Ergänzung ()
vlt wird die GPU alles verändern^^
Tamahagane
Vice Admiral
- Registriert
- Jan. 2008
- Beiträge
- 6.626
Herrlich hier, richtig erheiternd
Hehe, danke für den link, so genau hab ich mir Bilder nicht angesehen.
Ok, ist vielleicht nicht optimal, aber wo ist das Problem einen Monitor mit DisplayPort zu nehmen?
Warst du nicht der der sich in einem der ersten Parade-Fanboy-Geblaber-Posts geschrieben hat, er kauft sich sofort bei erscheinen dieser Karten 2 davon für SLI? Köstlich Bissl weniger Spam tuts auch, so nebenbei.
Ach ja und bevor mir jetzt dann Leute vorwerfen ATI-Fanboy zu sein:
Komisch wieso hab ich dann in meinen Rechnern derzeit keine Einzige verbaut?
(GTX285, 88GTX, ION, 9400M, 7400M, VIA S3)
Shurkien schrieb:Ich tippe auf ca 100% Leistungssteigerung gegen die GTX285/HD5870, aber wurde hier ja schon oft gesagt
johnieboy schrieb:war grad im HW-Luxx Forum und dort haben ein paar User etwas zu der von Nvidia präsentierten Karte herausgefunden.
Jen-Hsun Huang hat keinen Prototypen des Fermi gezeigt!
Hehe, danke für den link, so genau hab ich mir Bilder nicht angesehen.
Kasmopaya schrieb:Habs ja gleich gesagt ATI und Enthusiast Features(zb. auch CFX) das passt einfach nicht zusammen...
MfG Kasmo
Ok, ist vielleicht nicht optimal, aber wo ist das Problem einen Monitor mit DisplayPort zu nehmen?
QX9770-Freak schrieb:ich denke da wären 1 chip grakas ala nVidia besser, da es ja doch noch allehand multi gpu fehler gibt....
Warst du nicht der der sich in einem der ersten Parade-Fanboy-Geblaber-Posts geschrieben hat, er kauft sich sofort bei erscheinen dieser Karten 2 davon für SLI? Köstlich Bissl weniger Spam tuts auch, so nebenbei.
Ach ja und bevor mir jetzt dann Leute vorwerfen ATI-Fanboy zu sein:
Komisch wieso hab ich dann in meinen Rechnern derzeit keine Einzige verbaut?
(GTX285, 88GTX, ION, 9400M, 7400M, VIA S3)
Zuletzt bearbeitet:
- Status
- Für weitere Antworten geschlossen.