News Nvision: Zukünftige GPUs ohne Spezialisierung

kann man damit crysis endlich auf max drehen ? :)
(sorry der musste sein)
 
Diese erscheint mit einer Speicherbandbreite von mehr als einem Terabyte, einer ALU-Leistung von mehr als zehn Teraflops pro Sekunde und noch vielen weiteren Vermutungen mehr als nur gewaltig

wart ma halt mal ab^^
 
Vor 5 Jahren konnte sich auch keiner vorstellen:

- 4 Core auf eine Sockel
- 8 GB Speicher auf einem Desktop
- 1 TB Platten
- Stromsparfunktionen
- 64 Bit Prozessoren
- Virtualisierung von Betriebssystemen
- Navigationssysteme
- HDTV
- Crysis :-))))))

Als wenn NVidia die einzigen währen, die etwas entwickeln....
 
Lol, so ein Gefloppe gibts nur von nvidia :p
Vermutlich bewerben die ihre Grafikkarten bald damit, dass sie sich selbst rendern können :evillol:
Oder aber das neue Nvidia-Wahrzeichen in Echtzeit berechnen können :evillol:

Naja, wer weiß, bis dahin gibts aber nicht mehr allzuviel zum shrinken *g
 
mika2004 schrieb:
Vor 5 Jahren konnte sich auch keiner vorstellen:

- 4 Core auf eine Sockel

Nein, aber dafür dachte man, dass man heute 20GHz Takt hätte

mika2004 schrieb:
- 8 GB Speicher auf einem Desktop

Doch, konnte man sich vorstellen

mika2004 schrieb:

Das auch

mika2004 schrieb:
- Stromsparfunktionen

Naja, so die schlimmsten Stromfresser zB Athlon XP Thoroughbred hatten damals um die 60W TDP. Das war für die damalige Zeit viel, weil wenige jahre davor war man so bei um die 20W. Insofern war es absehbar, dass Stromsparfunktionen mal ein Thema werden könnten, wobei es damals noch nicht dringlich war.

mika2004 schrieb:

doch, der AMD 64 kam 2003 raus :P

mika2004 schrieb:
Navigationsysteme

GPS gibts seit 1995.
Kitt in Knight Rider (1982) hatte auch schon eins :P

mika2004 schrieb:

Es gab in den 1980er Jahren schon mal einen HD Standard, der war allerdings noch analog, weshalb er sich nicht so recht durchsetzen konnte.

mika2004 schrieb:

Okay, Punkt für dich :P
 
porsche944 schrieb:
Stichwort: 4D :D

Wer weiß wie hoch 2013 die Energiekosten sind. Entweder, es wurde dann bereits eine alternative Möglichkeit gefunden, Strom zu erzeugen (Weiterentwicklung der Solartechnik z.B.) oder es wird nichts neues gefunden und die Kw/h kostet uns 1€. Dann will ich mal die sehen, die noch eine High-End GPU in ihrem Rechner verbaut haben (vorausgesetzt, es wird nichts enwickelt/erfunden, was den Energiebedarf der GPU's senkt, was ich imo aber auch bezweifle).

4D? wie soll man das verstehen?
P.S. es gibt schon die 4Dimension, so neben bei, die nennt sich Zeit:)
P.P.S. an oben, geil auseinandergenommen!!
 
Zuletzt bearbeitet:
Diese erscheint mit einer Speicherbandbreite von mehr als einem Terabyte, einer ALU-Leistung von mehr als zehn Teraflops pro Sekunde und noch vielen weiteren Vermutungen mehr als nur gewaltig

Da die ALU Leistung ja sowieso schon geradezu explodiert halte ich 10tflop für nicht unrealistisch, eigentlich sogar nichtmal für allzuviel.


Da bietet sich ein netter Vergleich an (auch wenn nur bedingt vergleichbar):
Eine aktuelle GPU schafft es auf über 1TFLOP, das ist etwa genauso viel wie der 1997 gebaute ASCI Red, damals schnellster Supercomputer der Welt.
Hat also gerade mal 11 Jahre gedauert um das Monster einzuholen.

Demnach müsste eine GPU im Jahr 2013 schon auf rund 30TFLOP kommen (Leistung des 2002 gebauten Earth Simulators).

Vlt. hat ja jemand mal Lust zwei Graphen mit mehr Daten dazu zu basteln :D
 
10 tflop halte ich für zu "wenig" ...

aktuelle haben ja schon 2 !
Davon dann einfach 4 aufn 4xPCIE Board und man hätte bereits 8 ... :lol:


Wichtiger als das ganze Graphikgedöns wäre es mal , die brachiale Leistung für andere Zwecke nutzbar zu machen!

Zb als graphik beschleunigung in photoshop/illustrator
encoding boost für 1080p material
rechenhilfe in datenbankprozessen
etc

CUDA gibt ja schon eine vielversprechende richtung vor. Auch wenn heimanwender noch nich sowirklich nutzen davon haben. Badabooms erster GPUEncoder ist auch mehr ein witz als eine ernste alternative...

Bin gespannt wie sehr Larabee ankommen wird...
 
M.D. Geist schrieb:
10 tflop halte ich für zu "wenig" ...

aktuelle haben ja schon 2 !
Davon dann einfach 4 aufn 4xPCIE Board und man hätte bereits 8 ... :lol:


Wichtiger als das ganze Graphikgedöns wäre es mal , die brachiale Leistung für andere Zwecke nutzbar zu machen!

Zb als graphik beschleunigung in photoshop/illustrator
encoding boost für 1080p material

http://www.techpowerup.com/index.php?69536
Kommt recht bald.
 
Und PS CS4 wird ja wohl auch Hardwarebeschleunigung via Graka unterstützen. Das wird bei diversen aufwenigen Rechenarbeiten bestimmt auch angenehm sein ;)
 
FLOPS heisst ja "Floating Point Operations Per Second".. Somit macht, wie schon Caelte angedeutet hat, "FLOPS per Seconds" keinen Sinn.. das währen ja dann FLOPS im Sekundenquadrat :p
 
... nun das ist der einzig logische schritt ... und ein klein wenig die hoffnung, dass software endlich wieder für hardware geschrieben und optimiert wird und nicht hardware für software entwickelt werden muss!
 
@Digitalangel
In der Vergangenheit hat sich gezeigt dass Supercomputer etwa alle 11 Jahre um 3 Größenordnungen schneller geworden sind. Um Moores Law zu erfüllen hätte es aber 15 Jahre dauern müssen. Daher denke ich wird der Abstand zwischen Supercomputer und seinen einzelnen Komponenten auch weiterhin immer größer werden. Denn es werden auch immer mehr Recheneinheiten (in der Vergangenheit CPUs) verbaut.
 
Zurück
Oben