News Nvidias „Volta“-GPU folgt nach „Maxwell“ mit Stacked DRAM

Das ist quasi für APU's am interessantesten, meiner Meinung nach...
 
@Ganzir

nVidia kann viel verlangen wnn der Tag lang ist :D Wenn der Preis zu hoch ist wird nicht gekauft und somit gleicht sich das aus :) Das ganze "Monopol-Sezanario" das man früher in der Schule gelernt hat ist in der heuteigen Zeit überholt. Sollte nVidia mal alleine da stehen dauert es nicht lang bis Konkurenz kommt. War schon immer so und wird immer so sein :)
 
Vereinter, virtueller Adressraum. Ist das vergleichbar mit dem HSA-Feature, dass GPU und CPU gemeinsam einen Bereich des Arbeitsspeichers nutzen können?

Ich hatte das bisher so verstanden, dass HSA nur etwas für APUs ist, weil nur bei denen eine gemeinsame Nutzung eines Speicherbereichs funktioniert (weil beide am selben Speichercontroller hängen).
Wenn auch bei dedizierten GPUs (Karten) das langwierige hin und her Kopieren zwischen RAM und VRAM wegfällt, das GPU-Beschleunigug bisher in vielen Fällen ineffizient macht, wäre das schon eine sehr interessante Sache.
 
Elkinator schrieb:
nvidia redet in letzter zeit nur noch von der zukunft, kein wunder wenn die aktuellen SoCs niemand will^^
Der Witz an der Geschichte, FinFET und Stack-Momory sind keine Nvidia-Innovationen. Diese zweit Techniken sind für GPUs ziemlich uninteressant. Es verwundert, dass sie bei Volta nichts über Nvidia-eigene Innovationen sprechen konnnten.

Anstatt über Volta zu reden, hätten sie mehr über Maxwell sagen können, dann Unified Momory hört sich ja ziemlich interessant an.

Kasmopaya schrieb:
Vor allem nur ein Refresh von Maxwell, ich hoffe das die Preise für Maxwell wieder einigermaßen normal ausfallen.
Das Problem der Preise war nie die Architektkur, sondern die Fertigungs-Kosten. Und ein Refresh mit den neuen FinFET-14nm-Wafer wird die Sache wohl kaum billiger machen, sondern wennschon teurer. Vorallem, wenn die schlechteren Preis-Leistungs-Karten heute fleißig gekauft werden, anstatt erhebliche einbußen zu erwirken, so wird Nvidia in Zukunft die Preise sehr einfach hoch halten können.
So wird dann die Realität aussehen und da bringt kein Hoffen & Beten.
 
Dann hof mal, dass AMD nicht über die Wupper geht.
AMDs GPUs gehen meiner Meinung nach nicht über die Wupper, egal was mit AMD passiert, da die GPU Sparte zu gut funktioniert und zu wertvoll ist. Eher kauft Intel die Sparte und hat endlich gute GPUs und Treiber. Oder Samsung?

Und ein Refresh mit den neuen FinFET-14nm-Wafer wird die Sache wohl kaum billiger machen, sondern wennschon teurer.
Das habe ich mir genau so auch gedacht, darum hoffe ich das Maxwell hier ein wenig günstiger wird zwischen durch, wie Kepler, wobei günstig hier wohl das falsche Wort ist. Hoffentlich wieder max. 600€ anstatt 900€ vom Big Kepler.

Stichwort unified Ram: L1-L3 kann auf den Vram zugreifen nach belieben? Auf jeden Fall interessant.
 
Zuletzt bearbeitet:
NemesisFS schrieb:
Ich denke, dass bei 2160p vorerst Schluss ist, da ist das Auflösungsvermögen des Augen schon länger am Ende. Solche Auflösungen sind in erster Linie werbewirksam.

Das ist eine ziemlich, ziemlich "dumme" Aussage. Wie kannst du sagen das bei 2160p wegen den Augen Schluss ist, aber du zugleich keien Diagonale nennst? Oder ist 2160p auf einem "Bildschrim" mit 3m Diagonale auch Schluss?...
 
HiT-Killer schrieb:
Das ist eine ziemlich, ziemlich "dumme" Aussage. Wie kannst du sagen das bei 2160p wegen den Augen Schluss ist, aber du zugleich keien Diagonale nennst? Oder ist 2160p auf einem "Bildschrim" mit 3m Diagonale auch Schluss?...
Wenn man den kompletten 3m-Bildschirm betrachten möchte und nicht nur Teilbereiche, muss man allerdings zwangsläufig einen gewissen Abstand einhalten. Somit wird es schon eine Grenze geben, ab dem der Auflösungswahn für Normalsichtige keinen Vorteil mehr bietet. ;)
 
4k hat bis zu einer größe von 80" keinen vorteil.
 
was soll das damit zu tun haben?
 
Ich hatte das bisher so verstanden, dass HSA nur etwas für APUs ist, weil nur bei denen eine gemeinsame Nutzung eines Speicherbereichs funktioniert (weil beide am selben Speichercontroller hängen).
Wenn auch bei dedizierten GPUs (Karten) das langwierige hin und her Kopieren zwischen RAM und VRAM wegfällt, das GPU-Beschleunigug bisher in vielen Fällen ineffizient macht, wäre das schon eine sehr interessante Sache.


Einen UVA (Unified Virtual Address Space) hat es in CUDA schon bereits seit Fermi (siehe http://www.nvidia.de/content/PDF/fermi_white_papers/NVIDIA_Fermi_Compute_Architecture_Whitepaper.pdf). Dieser hat allerdings diverse andere Auswirkungen wie dass man innerhalb eines Kernels (GPU-Programm) Zeiger ohne ihren Speicherbereich als weitergeben und dereferenzieren kann oder dass man direkt auf den DRAM anderer CUDA GPUs zugreifen kann.

Direkt auf den Hostspeicher aus einem Kernel heraus zugreifen konnte man durch Mapped Memory über DMA in CUDA bereits lange vor UVA.

Generell erschliesst sich mir gerade auch aus der News nicht ob an diesen angekündigten UVA etwas neu oder besonders ist.
 
Cool Master schrieb:
nVidia kann viel verlangen wnn der Tag lang ist :D Wenn der Preis zu hoch ist wird nicht gekauft und somit gleicht sich das aus :) Das ganze "Monopol-Sezanario" das man früher in der Schule gelernt hat ist in der heuteigen Zeit überholt. Sollte nVidia mal alleine da stehen dauert es nicht lang bis Konkurenz kommt. War schon immer so und wird immer so sein :)

Da hat unser Patentsystem aber auch noch nen Wörtchen Mitzureden
Das die Welt nicht ganz so rosarot ist sieht man z.B. am Netz der Telekom und an Windows...
 
Blubbsy schrieb:
das auge löst bis 900dpi auf. bei 2160p ist also bei weitem nicht schluss

Soweit ich weiß ist die Auflöungsleistung des Auges abhängig von der Entfernung.
 
Was genau bringen die integrierten Arm-Kerne z.B. im Desktop Segment? Ansonsten scheint es wohl ähnlich wie beim Xeon-Phi gedacht zu sein, auf dem ein eigenes Betriebssystem läuft?
 
Herdware schrieb:
Vereinter, virtueller Adressraum. Ist das vergleichbar mit dem HSA-Feature, dass GPU und CPU gemeinsam einen Bereich des Arbeitsspeichers nutzen können?

Ich hatte das bisher so verstanden, dass HSA nur etwas für APUs ist, weil nur bei denen eine gemeinsame Nutzung eines Speicherbereichs funktioniert (weil beide am selben Speichercontroller hängen).
Wenn auch bei dedizierten GPUs (Karten) das langwierige hin und her Kopieren zwischen RAM und VRAM wegfällt, das GPU-Beschleunigug bisher in vielen Fällen ineffizient macht, wäre das schon eine sehr interessante Sache.
Das ist ein HSA Feature und auf der Roadmap für dedizierte GPUs in 2014 vorgesehen bei AMD.

3-1080.2263084609.png


HSA ist allerdings ein offener Standard den jeder nutzen kann. Somit wird Nvidia hier von den Software und Hardware Standards profitieren die bei der HSA Foundation etabliert werden. Wie sollte sonst Unified Memory mit Intel oder AMD CPUs funktionieren? Da reicht eine GPU alleine nicht. Aber bei Nvidia kann das alles mögliche heisen - das könnte auch lediglich bedeuten dass der Speicher mit einem auf der GPU verbauten ARM Core gemeinsame Speicherbereiche nutzt. Wofür auch immer. Vielleicht die Tegra Modelle.
 
Elkinator schrieb:
was soll das damit zu tun haben?

Wie größer die Pixel, desto stärker tritt Aliasing in Erscheinung. Wenn ich statt auf einem FHD auf einem UHD Monitor spiele, kann ich mir Anialiasing u.U. sparen.
 
estros schrieb:
Es wird immer mehr Leistung benötigt, Techniken werden rechen-aufwändiger, die Pixelanzahl nimmt kein Ende(Wer denkt bei 1080 oder 2160p ist Schluss, der irrt).

Tja, das neue Galaxy S4 hat weit über 400 dpi, wie unnötig hoch soll die Pixelanzahl denn noch steigen:rolleyes:
Klar ist ein Handy etwas anderes als ein PC-Monitor, aber mir reichen meine ca. 100 dpi (1080 p) auch schon aus.
Dann dürfen bei einem Handy doch 200 dpi auch schon ausreichen.
mMn ist es bei PC-Monitoren unnötig, mehr als ca. 160 dpi zu haben, also gibt's ja nicht mehr viel zu tun.
Aber so wie ich die Brache kenne, wird es immer höhere Auflösungen geben und einen damit verbundenen immer höheren Grafikaufwand,
nur damit die Leute wieder Graka´s kaufen.
Typisch Konsum :rolleyes:
 
Smagjus schrieb:
Wie größer die Pixel, desto stärker tritt Aliasing in Erscheinung. Wenn ich statt auf einem FHD auf einem UHD Monitor spiele, kann ich mir Anialiasing u.U. sparen.
deswegen hab ich ja gesagt bis 80", bei einem fernseher sitzt man so weit weg das man von mehr als 1080p keinen vorteil hat.

wenn man einen kleinen monitor mit hoher pixeldichte hat braucht man aber auch kein aliasing, davon wird das bild nur matschig.
das braucht man nur, wenn die auflösung zu gering ist.

ideal wäre 2560*1600 auf 22"-24", hoffentlich kommt das irgendwann, oder gleich 3:2:)
Ergänzung ()

es gibt leider keine monitore mit 160PPI:(
meiner hat 103, und das ist schon so ziemlich das maximum was man bekommt:/
 
das wird meine nächste karte :D
 
Cr4y schrieb:
Blubbsy schrieb:
das auge löst bis 900dpi auf. bei 2160p ist also bei weitem nicht schluss
Soweit ich weiß ist die Auflöungsleistung des Auges abhängig von der Entfernung.

Genau, bei der typischen Entfernung zu einem Monitor kann man von höchstens 200 dpi ausgehen - selbst bei handys (die man etwas näher hält) geht man von 300 dpi aus.

@Antialising allg. / Elkinator. Also 4k macht schon sinn, und das Bild keinesfalls matschig. Oder siehst du matschige Texturen bei SGSSAA/Downsampling (ok bei letzterem gibt es Ausnahmen)? Bei Resize von Bildern? Das ist einfach schon ewig Trick 17.
 
Zurück
Oben