News ve.ga: Offizielle Vorschau auf AMD Vega am 5. Januar

EchoeZ schrieb:
@Mambokurt
Wenn ich zu Dir sage "Geh' doch kacken", heisst das nicht zwangsläufig daß Du deinen Stuhlgang erledigen sollst. Ups, auch das heisst dann nicht daß Du mit den Stuhl irgendwo hingehen sollst. ;)
Ist schon verdammt schwer zwischen den Zeilen zu lesen um den eigentlichen Sinn zu erkennen...:freak:

Nein, aber manchmal ist 'Geh doch kacken' eben auch nur ein Vorschlag, den Darm zu entleeren :evillol:.

killbox13 schrieb:
Meine Güte... ich frage mich langsam ob manche den Zusammenhang in diesem Hype Video einfach nicht verstehen wollen oder können. [..]
Am besten schreibt man hier mal 100 Beispiele auf, in welchem Kontext "make some noise" was bedeutet, sonst nimmt das ja nie ein Ende ;)

Ich habe jetzt mal in 5 Onlinewörterbüchern nachgeschaut, da wird in _keinem_ make some noise mit Aufmerksamkeit erregen übersetzt. Nichtmal als abwegigste Option. Ich wäre auch ums Verrecken nicht auf die Idee gekommen das so zu übersetzen, und ich hab mehr englische als deutsche Bücher im Schrank. Es scheint als sei das seit einigen Jahren auch von der Musikszene nach Twitter rübergeschwappt und von da dann auch zu wohltätigen Projekten(und da soll man halt Krach schlagen, damit die Aufmerksamkeit bekommen), aber solange ihr nicht den Spendenhut für AMD rumgeben wollt ist das wohl eher nicht das, was die sagen wollten :D Kann natürlich sein, dass das inzwischen in der Jugendsprache die Bedeutung gewechselt hat, und das noch in kaum einem(oder keinem) Wörterbuch gelandet ist.

Von mir aus haltet daran fest, für mich die Intention: das sind die jungen wilden Underdogs, die wollen den Markt aufmischen, die wollen Krach machen, die wollen VR für die arbeitende Klasse. *mic drop* Das wars von mir, now make some noise :D
 
Beitrag schrieb:
Aus der Dual GPU Polaris wird dann wohl nichts mehr. Da hat sich die Gerüchteküche verrechnet.

Was ja erstmal gar nicht schlecht ist. Noch interessanter wirds, wenn dann eine Dual-Chip Karte auf Basis von Vega kommt.
 
Ein guter Film, aber eine schwache Nvidia Provokation. Poor Volta.
Man wird kaum einer 1080Ti gefährlich werden können mit 12 Teraflops, selbige bietet genausoviel und Nvidia reizt die vorhandene Leistung seit Maxwell knapp 30% besser aus.
Wie ma da auf Volta kommt, verstehe ich nicht. Man nimmt den Mund wieder zu voll.
 
na dass lässt doch erstmal aufhorchen. dieses jahr will die alte mühle endlich mal auf vordermann gebracht werden :-)
 
Daddelkopf schrieb:
Wie ma da auf Volta kommt, verstehe ich nicht. Man nimmt den Mund wieder zu voll.

Eventuell eher ein Hardware-Architektur Vergleich, als ein Vergleich mit "Grafikkarten", speziell da die 1080Ti Pascal ist und nicht Volta.

Außerdem muss AMD nicht unbedingt den Mund zu voll nehmen. Volta kommt später als Vega und Vega wird vermutlich bereits einige Technologien haben, welche NV erst mit Volta einführen wird. Da wäre zum Beispiel HBM 2.0 zu erwähnen, welche es bei Pascal nur für HPC Markt gibt.
Desweiteren ist immer noch unklar, wie viele Varianten von Vega es gibt, da auch bald Navi folgen soll (2018)

Und weil 1080Ti immer genannt wird, die Performance ist einschätzbar, die Vega GPUs nicht. Deshalb ist es spannender, was AMD zeigen wird.
 
Zuletzt bearbeitet:
Wenn ich König wäre, würde ich all diejenigen für diese Thread sperren, die laut rumheulen wie wichtig doch mehr als 8 GB VRAM sind... :rolleyes: Das ist ja furchtbar sich soviel halbwissen durchzulesen und grenzt an fahrlässiger trollerei.

Keine Ahnung was ihr alles in den VRAM schmeißen wollt, um es in den 16,666 ms Zeitfenster (für 60 FPS) sinnvoll zu nutzen. Selbst bei einer aktuellen GTX 1080 mit theoretischen 320 GByte/s können innerhalb eines Frames von 16,666 ms ca. 5,33 GByte über den Bus geschoben werden, theoretisch! Real treten noch so richtig schmerzende Dinge wie Cache-Misses, Pipeline-Stall's u.ä. auf, was die effektive Bandbreite nochmal drückt.

Das ist jetzt natürich ziemlich abstrahiert, in der Realität ist das alles noch eine ganze Ecke komplexer und nicht schwarz/weiß. Im Endeffekt sind alle die Spiele, die es schaffen eine GPU ins VRAM(-Bandbreiten)-Limit zu treiben reines Seelen-Balsam für die ganzen Kinder und Enthausiasten die rumheulen, man solle doch den teuer bezahlten VRAM nutzen, egal wie blödsinnig es ist oder wie marginal die visuellen Verbesserungen sind. Viel VRAM hilft derzeit eigentlich nur zum (Vorab-)Buffern von Texturen, und selbst das ist dank Textur-Streaming und Komprimierung eher ein kleines Problem.

Was ich sagen will: Die Technik ist relativ weit davon entfernt 8 GB VRAM sinnvoll zu nutzen. Und selbst wenn wir theoretisch bei 60 FPS die 8 GB VRAM in jedem Frame komplett "anfassen" könnten, heißt das noch lange nicht, dass die GPU-Kerne auf diesen Datenmengen diverse Shader-Programme im anvisierten Zeitfenster anwenden können. In der Spieler-Praxis sind mehr als 8 GByte VRAM in diesem Jahrzeit einfach absolut unnötig.
 
0xffffffff schrieb:
Was ich sagen will: Die Technik ist relativ weit davon entfernt 8 GB VRAM sinnvoll zu nutzen. Und selbst wenn wir theoretisch bei 60 FPS die 8 GB VRAM in jedem Frame komplett "anfassen" könnten, heißt das noch lange nicht, dass die GPU-Kerne auf diesen Datenmengen diverse Shader-Programme im anvisierten Zeitfenster anwenden können. In der Spieler-Praxis sind mehr als 8 GByte VRAM in diesem Jahrzeit einfach absolut unnötig.

Ich teile Deine Gedanken voll und ganz. Besonders die 320 GByte/s Durchsatz sind bei 60 Vollbilder pro Sekunde weit ausreichend. Die Entwickler in den Labor haben sich dabei was gedacht, wenn sie ein 256 Bit Interface in den Chip implementieren. Ohh die Karte könnte 40% schneller sein mit einem höheren Speicherdurchsatz, egal, machen wir nicht, will jetzt in die Mittagspause. So bestimmt nicht ;-)

Das ist das gleiche wie DDR3 und DDR4 bei einem Core i Prozessor.
 
Zuletzt bearbeitet:
Beitrag schrieb:
Aus der Dual GPU Polaris wird dann wohl nichts mehr ... hat sich die Gerüchteküche verrechnet.

Das sieht wohl danach aus und ich glaube, AMD würde sich mit einer Dual Polaris GPU auch keinen Gefallen tun, aber ich gehe von einer Dual Vega GPU in diesem oder Anfang kommenden Jahres (Nachfolger der Radeon Pro Duo) aus.

Gut möglich, dass mit Navi (in 2019 wohl erst) Multi-GPUs auf einem Interposer eingeführt werden (an irgendetwas muss ja die extra eingerichtete Multi-GPU-Abteilung bei AMD/RadeonTechnologies Group mittel- bis langfristig arbeiten neben CrossFire-Profilen/Multi-GPU-Spiel-Support und Pro Duo Support für VR), aber das ist noch Zukunftsphantasie ...
 
Zuletzt bearbeitet:
Novasun schrieb:
wer sollen diese Anteilseigner sein? Komm mal mit was Input rüber...

Das sind der US Amerikaner John Doe, der Brite Joe Bloggs, die Deutsche Erika Mustermann und der Schwede Mendel Svensson - eine international bekannte Verschwörerbande...
 
Chismon schrieb:
Das sieht wohl danach aus und ich glaube, AMD würde sich mit einer Dual Polaris GPU auch keinen Gefallen tun, aber ich gehe von einer Dual Vega GPU in diesem oder Anfang kommenden Jahres (Nachfolger der Radeon Pro Duo) aus.

Ich bezweifle auch, dass die erfolgreich gewesen wäre. Irgendwie hatte man ja gemunkelt, eine RX 490 noch vor Jahresende zu sehen und dann auf 2x Polaris geschlossen, weil die RX 480 ja Vollausbau ist und Vega zu weit weg war/ist. Eine Zielgruppe, die den Entwicklungskosten gerecht geworden wäre, hätte es vermutlich eh nicht gegeben. Besonders da Vega ja immer näher rückt.
PS: Die drei Punkte für Auslassungen im Zitat kommen in eckige Klammern. Warum auch immer du ". Da" so gerne auslassen wolltest. :p
 
pipip schrieb:
Volta kommt später als Vega und Vega wird vermutlich bereits einige Technologien haben, welche NV erst mit Volta einführen wird.

Welche Technologien? HBM2 hat Nvidia vor AMD eingeführt. HBM2 nutzt Nvidia nicht für die Desktopkarten, weil GDDR5x massig ausreichend ist.
 
Beitrag schrieb:
... drei Punkte für Auslassungen im Zitat kommen in eckige Klammern. Warum auch immer du ". Da" so gerne auslassen wolltest. :p

Das ist die einfachste Art (bzw. hat sich bewährt/etabliert) im Schnellverfahren einen Vorgängertext so zu editieren, dass ich wegen eines sonstigen Voll-Postings keine CB Mahn-Nachrichten in meinem Postfach erhalte, was früher des Öfteren der Fall war. Die eckigen Klammern/Satzzeichen wären zu viel Arbeit gewesen und hätten Deinen ehemaligen Text noch über ein Voll-Posting hinaus verlängert, was mir auch wieder Kritik seitens der CB Moderation hätte einbringen können ;).

Daddelkopf schrieb:
Technologien? HBM2 hat Nvidia vor AMD eingeführt. HBM2 nutzt Nvidia nicht für die Desktopkarten, weil GDDR5x massig ausreichend ist.

Abseits des Profi-Bereich (P100) hat nVidia wo HBM2 eingeführt, geschweige denn mitentwickelt? GDDR5X verbraucht deutlich mehr, benötigt mehr Platz, ist deutlich langsamer und schlechter adressierbar, insgesamt auch in der höher taktenden High-End Version (welche die GTX 1080 noch nicht spendiert bekommen hat, weil es diese damals noch nicht gab) klar HBM2 unterlegen, aber eben wohl billiger, sonst noch etwas?

Pascal ist ein leicht getunter Shrink der Maxwell Architektur, somit extrem altbacken, selbst die unspektakuläre Polaris Architektur von AMD hat (bspw. in Sachen AsyncCompute und Shader Intrinsics) da mehr Neuerungen eingebracht (trotz des vergleichsweise lächerlichen Forschungsetats von AMD im Vergleich zu nVidia) und Vega ist die erste vollwertige Architektur mit zahlreichen Verbesserungen/Neuerungen im 14/16 nm Bereich (siehe hier) und wird vor Volta herauskommen, so einfach ist das ;).
 
Zuletzt bearbeitet:
Faust2011 schrieb:
Noch interessanter wirds, wenn dann eine Dual-Chip Karte auf Basis von Vega kommt.
Nicht Dein Ernst?!
Damit die bei AMD (bereits bei single-GPU) ohnehin zuhauf auftretenden MR ins Unerträgliche gehen?
 
Was meinst Du mit MR?
 
Scriptkid schrieb:
Nicht Dein Ernst?!
Damit die bei AMD (bereits bei single-GPU) ohnehin zuhauf auftretenden MR ins Unerträgliche gehen?

Ohja, wieder die Geschichte der MR die auf AMD Karten alles unspielbar machen.
Nach 4 Jahren HD 7970 ist mir seit knapp 1 Jahr mit GTX 980 kein Unterschied dazu aufgefallen der diese tolle MR Geschichte bestätigen könnte.
Nur weil bei AMD ein paar Auschläge mehr in diesen lustigen Frametime Messungen auftreten müssen Spiele natürlich gleich merklich ruckeln, is klar...
Diese MR sind was fürs Reich der Legenden.
Das fällt bestimmt den gleichen Supermenschen auf die in einem Shooter den Unterschied zwischen High und Ultra Texturen in voller Bewegung sehen können.

Bert schrieb:
Was meinst Du mit MR?
MR=Microruckler
 
Zuletzt bearbeitet:
Chismon schrieb:
Abseits des Profi-Bereich (P100) hat nVidia wo HBM2 eingeführt, geschweige denn mitentwickelt?

Wer soll denn das behauptet haben? Siehst du da jemanden?

GDDR5X verbraucht deutlich mehr, benötigt mehr Platz, ist deutlich langsamer und schlechter adressierbar, insgesamt auch in der höher taktenden High-End Version (welche die GTX 1080 noch nicht spendiert bekommen hat, weil es diese damals noch nicht gab) klar HBM2 unterlegen, aber eben wohl billiger, sonst noch etwas?

Ich habe eigentlich nur nach Technologien gefragt von denen pipip geredet hat und welche das sein sollen. HBM2 hat Nvidia schon bei den professionellen GPU´s vor AMD zur Reife gebracht.
Pascal ist ein leicht getunter Shrink der Maxwell Architektur, somit extrem altbacken,

Ist es eigentlich deine Aufgabe hier sonen Blödsinn zu posten und Nvidia schlecht zu reden?
Was ist mit dem massiv gesteigerten Takt? Der besseren color compression? Des besseren mm²/Performance Verhältnisses?
Extrem Altbacken, weil Async fehlt.:rolleyes:

selbst die unspektakuläre Polaris Architektur von AMD hat (bspw. in Sachen AsyncCompute und Shader Intrinsics) da mehr Neuerungen eingebracht (trotz des vergleichsweise lächerlichen Forschungsetats von AMD im Vergleich zu nVidia)

Und diese Neuerungen die es auf beiden Seiten gibt, sind nun bei AMD von so einschneidender Wirkung, dass man Pascal als altbakkene Architektur darstellt?:evillol:

Bist du das AMD Marketing persönlich?
 
Ich wuerd mir ne AMD mit 16 GB HBM2 und 20% Leistungsplus zur Titan XP at 2050 mhz fuer 1500 Euro wuenschen. AMD im Highend das waer mal was. Und dann Popcorn wenn AMD ploetzlich die teuerste Karte am start hat, dann waer man als AMD Fan ja ganz Zwiegespalten hat man doch immer auf NVIDIA s Preispolitik rumgehackt ...

Mal sehen wenn HBM2 dann doch ganz schoen teuer wird...
 
Daddelkopf schrieb:
Ist es eigentlich deine Aufgabe hier sonen Blödsinn zu posten und Nvidia schlecht zu reden?
Was ist mit dem massiv gesteigerten Takt? Der besseren color compression? Des besseren mm²/Performance Verhältnisses?
Extrem Altbacken, weil Async fehlt.:rolleyes:

pascall ist maxwell in 16nm ganz einfach auch wenn du es nicht wahrhaben möchtest
gibts auch test dazu da bei gleichem takt maxwell genauso schnell ist
und der höhere takt kommt durch die neue fertigung
 
Zuletzt bearbeitet:
nospherato schrieb:
Einfach mal nach:
make some noise übersetzung
suchen lassen.
Es taucht "Aufsehen erregen" bei allen 3 auf.

Aufsehen, nicht Aufmerksamkeit. Und 'to make a noise in the world' ist eine feste Wendung, ob man das 1:1 so übertragen kann wage ich mal zu bezweifeln. Ist in etwa so wie der Unterschied zwischen 'Wer andern eine Grube gräbt...' und 'Grabe eine Grube!', der eine fällt selbst hinein, der andere ist Tiefbauer :D.

Mit 'Aufsehen erregen' würde ich zur Not noch halbwegs mitgehen, aber so ganz 100% triffts das IMHO auch nicht. Das soll ein Gefühl transportieren, da kommst du mit formaler Übersetzung halt auch nicht so weit weil die Übersetzung an Aussagekraft einbüßt.
 
Zurück
Oben