Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News High-End-GPU: AMD Vega 10 mit 16 GB und 1.600 MHz gesichtet
- Ersteller MichaG
- Erstellt am
- Zur News: High-End-GPU: AMD Vega 10 mit 16 GB und 1.600 MHz gesichtet
- Registriert
- Aug. 2011
- Beiträge
- 12.992
Darkscream schrieb:Das eine RX480 um 50% mehr GFlops braucht um so schnell zu sein wie eine GTX1060 geht ja mal gar nicht.
Daran siehst Du, dass es um viel mehr geht, als nur die Anzahl der Shader. Schau mal über den Tellerrand und betrachte die komplette GPU. Sieh Dir den Rasterizer an. Gerade in diese Richtung gab es zuletzt viel Spekulation, dass es Nvidia hier seit Maxwell geschafft hat, nicht sichtbare Geometrie im Renderprozeß sehr früh auszuschließen und damit im Endeffekt viel Performance erst gar nicht für das Rendering von nicht sichtbaren Objekten unnötigerweise verbraucht, Stichwort Tiled-/Binned-Rasterizer.
Stunrise schrieb:Ich habe leider das Gefühl, dass AMD viel zu früh auf HBM und damit auf einen Rohrkrepierer gesetzt hat.
Dieses Gefühl werde ich auch nicht los. Mit GDDR5X und DDR6X sind attraktive Lösung präsent (bzw. in Entwicklung), die vor allem auch kostengünstiger sind. Der große Hoffnungsträger für mich wäre der Aspekt mit der APU, denn eine performante GPU-Einheit zusammen mit der CPU als SoC könnte schon die Zukunft sein.
frkazid schrieb:Im Endeffekt kauft doch eh jeder bei seinem favorisierten Kartenhersteller.
Schließe von dir nicht auf andere.
Meine letzten 3 Karten:
GTX 460 -> HD 7870 -> GTX 970 -> ~400€ VEGA
Zuletzt bearbeitet:
Das ist es. Die wenigsten kaufen wirklich nach Benchmarks.frkazid schrieb:Im Endeffekt kauft doch eh jeder bei seinem favorisierten Kartenhersteller.
Wenn einer schneller ist, ist der Stromverbrauch zu hoch, Speicher zu gering...
Das Haar in der Suppe findet man immer.
Ist ja auch blödsinnig. Selbst wenn ein Karte in 99% der Fälle schneller ist, kann der eine 1% genau fehlen.
Ich suche nach einem Fury Nachfolger für 3 WQHD Bildschirme. Freesync zwingt mich quasi.
Black&White schrieb:Für mich bitte zwei Stück zum mitnehmen, danke
Ganz schön viel heiße Luft, wenn man sich Dein aktuelles System so anschaut.
S
Shrimpy
Gast
derbe schrieb:Hurry! Hurry! Alle warten wie die Geier. Hoffen wir das nicht 1H komplett ausgenutzt wird aka 30 Juni.
Mir würde ne 8 GB langen P/L wichtiger als 16 GB
Richtig, weshalb eine 10 oder 12 GB karte die weit bessere entscheidung währe....
AMD bekommts immer wieder hin sich selber was zu versauen bei einem eigentlich guten produkt.
Bei Ryzen wars der dämliche Tempoffset...
Sollte es wirklich eine Endkunden karte mit 16 GB sein wird die soviel kosten wie eine Titan..mit 1600MHz zurecht.
Damit würde wohl sogar Fiji GP104 Konkurrenz bieten.
Shoryuken94 schrieb:Und warum das? Volta kommt in diesem jahr nur in den enterprisemarkt. Auf den endkundenmarkt kommt Volta erst Frühjahr 2018. Sprich mehr als ein halbes Jahr nach release von Vega. Dazu wird Nvidia von Volta wieder erst die performancechips bringen, sprich eine 2080 / 1180 und die Karten darunter. Diese wird performancetechnisch in etwas auf dem niveau der 1080ti liegen, vielleicht etwas darüber (so wie beim Sprung von der 780ti auf die 980 oder der 980ti auf die 1080).
imho.
Unwarscheinlich.
Bis jetzt zeigt GV100 das er fast nur durch DIE Size Leistung hinzugewonnen hat.
Ein GV104 mit ~300mm² wird nicht an GP102 kommen.
Und wenn die 1180 450mm² hat will ich nichtdie Nvidia-Preise sehen.
Zuletzt bearbeitet von einem Moderator:
derfledderer
Lt. Commander
- Registriert
- Sep. 2014
- Beiträge
- 1.322
SKu schrieb:
Du hast das Kappa vergessen.
Bestimmt stürzen sich schon wieder zig "News"-Seiten auf deine Aussage.
Zotac2012
Admiral
- Registriert
- Apr. 2012
- Beiträge
- 7.769
Na das ist ja eine tolle Erkenntnis, im Juni muss AMD VEGA ja auch kommen, denn am 30.Juni endet das 2.Quartal und in diesem will/wollte AMD VEGA ja auch Launchen!Mr. Rift schrieb:Laut Leaks steht der Launch unmittelbar bevor.
Anfang Juni. Gut möglich, das es morgen offiziellen Termin gibt.
Pure Existenz
Banned
- Registriert
- Juli 2013
- Beiträge
- 2.899
16GB ist mal ne Hausnummer. Sollte der für aktuelle Spiele nicht reichen, dann wisst ihr, was ihr für Schrott-Spiele gekauft habt!
Aber daraus wird dann wieder niemand was lernen.
Wenn die Leistung auf 1080Ti-Niveau ist, wird der Preis das auch sein.
Aber daraus wird dann wieder niemand was lernen.
Wenn die Leistung auf 1080Ti-Niveau ist, wird der Preis das auch sein.
MonkyJunkie
Lieutenant
- Registriert
- Mai 2005
- Beiträge
- 562
Wow 16gb soviel Ram haben manche nicht.
Chismon
Admiral
- Registriert
- Mai 2015
- Beiträge
- 8.601
latexdoll schrieb:Ganz ehrlich, da warte ich die 3 - 4 Monate bis Volta raus ist und habe mehr Leistung. Mit dieser Marktpolitik, hinkt AMD immer weiter hinter Nvidia her. Wenn das mit Navi genauso geht, wird Navi gegen den Volta Nachfolger antreten und wieder das nachsehen haben. Da ist HBM 2 Speicher nicht mehr der Unterscheidunggrund, wenn Karten mit GDDR6 auf den Markt kommen.
Warten wir auch mal ab, ob PCIe 4.0 bis dahin kommt und das DX12 Tier setting aussieht...
Naja, wenn Volta einer weiterer Maxwell Shrink (4.0) werden sollte und die Asbach-Architektur von nVidia nur weiter getunt und optimiert wird (man weiterhin die DX11 Marktführerschafts-Karte spielt und sich vermutlich wieder einmal zu billig sein wird für HBM2 im Konsumentenmarkt) und trotz Billig-GDDR6 die Speichermenge nicht ansteigt (keine Langlebigkeit sondern Profitmaximierung/Geiz wäre da ja nichts neues), dann kann man als Verbraucher auch ein Zeichen gegen den technologischen Stillstand und die Innovationslosigkeit nVidias und deren Höchstpreise setzen und AMD/RX Vega kaufen.
Zudem kommt noch HBCC dazu (vermutlich nicht grundlos verbaut/angepriesen zusammen mit HBM2) sowie Free-Sync 2, was Volta GPUs nicht bieten dürften (na gut, vermutlich noch teureren G-Sync+ Support irgendwann vielleicht).
Also, ob sich das warten bei derzeit maximal vermuteten 40% Mehrleistung so groß lohnen wird (?) und ja, es heisst nVidia hat wohl schon GV104 Karten in der Produktion, also HBCC-ähnliche Technik hat man vermutlich nicht implementiert (zumal man nicht aus der HBM1 Fehleinschätzung lernen musste) von heute auf morgen und muss im Bereich AsycnCompute, Intrinsic Shading usw. erst einmal aufholen um die GPU besser an DX12 und Vulkan anzupassen (evt. mehr Richtung AMDs GCN-Architektur gehen bzw. diese abzukupfern).
Eine eierlegende Wollmilchsau dürfte Volta auf aktuellem Wissensstand sicherlich nicht werden, es sei denn GV102/104/106/usw. sind speziell auf Gaming optimiert, aber davon hat Huang nichts verlauten lassen und am Ende könnte es nur zur knappen Leistungskrone bei den Single GPUs reichen im Jahr 2018 (gegenüber dem darauf folgenden Vega20 Refresh), somit ist das Ganze schwer einzuschätzen.
Klar, besser als der Maxwell (3.0) Shrink Pascal wird Volta wohl werden, aber wird es eine vollwertige 14/16nm Architektur und lohnt es sich darauf zu warten (wenn man kein nVidia-Fan ist)?
Wenn der HBCC im Zusammenspiel mit HBM2 bei AMDs RX Vega halbwegs gelingt und zum erwarteten neuen Meilenstein in der GPU-Architektur/-Langlebigkeit wird, denke ich nicht, dass sich ein Warten auf nVidias Volta-Generation lohnt.
Eine auf RX Vega Vollausbau basierende Radeon Pro Duo Dual GPU (um die es sich in diesem Artikel handeln könnte) dürfte auch eine kommende Titan Xv Single GPU auf GV102 Basis gut vernaschen und in einer ähnlichen Preisregion angesiedelt und "semi-professionell" ausgerichtet sein .
Mit der vermutlich 2019 kommenden 7nm Navi-Architektur könnte AMD nVidia bei den GPUs wieder die Single GPU Leistungskrone abspenstig machen und deutlich vor einem Volta (Refresh) liegen, aber warten wir es ab.
Vielleicht gelingt ja nVidia auch 'mal wieder ein größere technische Innovation im GPU-Bereich, jedoch sieht Volta danach bisher nicht aus, da sich viele Kunden auch gerne ohne solche melken lassen, Hauptsache der Balken ist am längsten .
Zuletzt bearbeitet:
forumuser05
Lieutenant
- Registriert
- Sep. 2005
- Beiträge
- 870
War jetzt nicht auf mich bezogen, aber ist denn so eine Aussage nicht auch etwas komisch? Weder steht fest, dass es für 400€ Vega-Karten gibt (denn wenn die 399$ stimmen für die günstigste, wird es deutlich teurer), noch gibt es überhaupt irgendwelche richtigen Ergebnisse, Vergleiche, usw. Aber du weißt schon sicher, dass es eine noch nicht erschienene Karte wird?Ap2000 schrieb:Schließe von dir nicht auf andere.
Meine letzten 3 Karten:
GTX 480 -> HD 7870 -> GTX 970 -> ~400€ VEGA
Bei mir läuft das in der Regel so ab:
GTX750TI -> GTX960 -> RX480 -> Karte um die 400€ (wichtige Punkte: Leistung, Lautstärke, Stromverbrauch; unwichtig: Marke!)
Ich würde mir auf jeden Fall eine gute Vega-Karte für etwa 400€ wünschen, aber mal sehen, was wirklich rauskommt und in welcher Reihenfolge es veröffentlicht wird... bei HBM2-Knappheit werden vermutlich erstmal die "großen" Karten bedient.
Vega 16 GB wird mit der 1080 Ti Fußball spielen . Nur als kleiner Anreiz für unsere Konvertiten. Also für die, die von Jesus zu Nvidia gewechselt sind.
Wenn die 16 GB Vega die 1080 Ti um 10% schlagen kann, kann AMD wegen HBM 2 und der 16GB locker 70-100€ teurer sein und würde gekauft werden. AMD müsste Null mit so einer Karte die Ti im Preis unterbieten. Potenzielle Ti, Titan Käufer würden auch 70-100€ mehr hinlegen, als eine Ti kostet.
Wenn die 16 GB Vega die 1080 Ti um 10% schlagen kann, kann AMD wegen HBM 2 und der 16GB locker 70-100€ teurer sein und würde gekauft werden. AMD müsste Null mit so einer Karte die Ti im Preis unterbieten. Potenzielle Ti, Titan Käufer würden auch 70-100€ mehr hinlegen, als eine Ti kostet.
Beyazid
Lieutenant
- Registriert
- Dez. 2009
- Beiträge
- 933
@Forumuser: Vielleicht geht es ihm nicht so sehr, dass er so überzeugt von Vega ist, sondern einfach nur darum, dass er mit seiner 970 (je nachdem wann er sie gekauft hat) ver*rscht wurde mit der 3,5 GB Sache und aus Prinzip erstmal auf Nvidia verzichtet
forumuser05
Lieutenant
- Registriert
- Sep. 2005
- Beiträge
- 870
@Beyazid
Das mag ja sein, aber dann sollte man auch genau das als Grund kommunizieren, dass man Vega hinschreibt, weil eine bestimmte Karte von der Konkurrenz enttäuscht hat, meinst du nicht?
Nur leider liest man das ja ständig hier im Forum, dass alle schon vor Release von Polaris, vor Release von Ryzen und erst recht (schon seit Herbst letzten Jahres (!) ) vor Release von Vega "wissen", dass die nächste Karte/CPU von AMD ist, obwohl kein einziger Test, keine wirklich vergleichbaren Daten, ja nicht mal ein vergleichbarer fixer Preis bekannt sind... das ist schon ulkig.
Natürlich gilt das genauso für nVidia-Karten, aber irgendwie liest man das deutlich häufiger zu AMD-Produkten.
Ich finde, AMD und nVidia nehmen sich beide nichts, keiner wird deutlich günstiger sein, irgendetwas "verschenken" oder deutlich besser sein, wenn Vega draußen ist ... deswegen wäre ich mit solchen Aussagen eher etwas vorsichtig und würde mal abwarten, wie es denn tatsächlich aussieht. Denn wie gesagt, vor Polaris gab es auch massenhaft "-> Polaris" Aussagen, bis dann der ernüchternde Test da war...
Zu wünschen wäre es AMD durchaus, im Grafikkartensektor ähnlich wie mit Ryzen dagegenhalten zu können, aber bevor etwas wirklich zu kaufen ist, sich schon einer Karte zu "versprechen", ist bisschen komisch.
Das mag ja sein, aber dann sollte man auch genau das als Grund kommunizieren, dass man Vega hinschreibt, weil eine bestimmte Karte von der Konkurrenz enttäuscht hat, meinst du nicht?
Nur leider liest man das ja ständig hier im Forum, dass alle schon vor Release von Polaris, vor Release von Ryzen und erst recht (schon seit Herbst letzten Jahres (!) ) vor Release von Vega "wissen", dass die nächste Karte/CPU von AMD ist, obwohl kein einziger Test, keine wirklich vergleichbaren Daten, ja nicht mal ein vergleichbarer fixer Preis bekannt sind... das ist schon ulkig.
Natürlich gilt das genauso für nVidia-Karten, aber irgendwie liest man das deutlich häufiger zu AMD-Produkten.
Ich finde, AMD und nVidia nehmen sich beide nichts, keiner wird deutlich günstiger sein, irgendetwas "verschenken" oder deutlich besser sein, wenn Vega draußen ist ... deswegen wäre ich mit solchen Aussagen eher etwas vorsichtig und würde mal abwarten, wie es denn tatsächlich aussieht. Denn wie gesagt, vor Polaris gab es auch massenhaft "-> Polaris" Aussagen, bis dann der ernüchternde Test da war...
Zu wünschen wäre es AMD durchaus, im Grafikkartensektor ähnlich wie mit Ryzen dagegenhalten zu können, aber bevor etwas wirklich zu kaufen ist, sich schon einer Karte zu "versprechen", ist bisschen komisch.
Faust2011 schrieb:Daran siehst Du, dass es um viel mehr geht, als nur die Anzahl der Shader. Schau mal über den Tellerrand und betrachte die komplette GPU. Sieh Dir den Rasterizer an. Gerade in diese Richtung gab es zuletzt viel Spekulation, dass es Nvidia hier seit Maxwell geschafft hat, nicht sichtbare Geometrie im Renderprozeß sehr früh auszuschließen und damit im Endeffekt viel Performance erst gar nicht für das Rendering von nicht sichtbaren Objekten unnötigerweise verbraucht, Stichwort Tiled-/Binned-Rasterizer.
Das Zeigt doch wie Faul Programmierer sind. Polygonen die man nicht sieht kann man schon viel früher herausfiltern im Spiel (Culling und Lod lassen grüßen), so das diese erst gar nicht die GPU erreichen. Rasterleistung hat dann AMD Genug. Man kann 4 Polyognen pro Takt verarbeiten. Bei einem Takt von 1000 MHZ währen das 4.000.000.0000 Polyongen pro Sekunde. Bei einer Auflösung von 4k (ein Polygon kleiner als 1 Pixel macht keinen Sinn) wären das immer noch 453 FPS pro Sekunde
Im Übrigen hat man in Spielen wo Nvidia beteiligt ist genau diesen Umstand ausgenutzt. Da wurden total Gerade Flächen, die man mit 2 Polygonen darstellen kann mit über 1000 Polygonen dargestellt. Siehe ein Spiel aus der Crysis Serie.
Aber die Leute glauben ja alles stats sich mal in das Thema wirklich reinzulesen.
Zuletzt bearbeitet:
Mracpad
Rear Admiral
- Registriert
- Sep. 2013
- Beiträge
- 6.034
Bei mir wird es auch relativ sicher eine Vega Karte ohne das ich genaue Benchmarkwerte kenne.
Ich meine, wann wird man schon mal wirklich(!) von der Leistung eines neuen Produkts überrascht? Passiert eigentlich nur wenn man vorher völlig realitätsferne Erwartungen hatte. Ich werde aber nicht "aus Prinzip" eine AMD Karte kaufen. Wenn Vega nicht abliefert, wird es eine NVIDIA.
Ich meine, wann wird man schon mal wirklich(!) von der Leistung eines neuen Produkts überrascht? Passiert eigentlich nur wenn man vorher völlig realitätsferne Erwartungen hatte. Ich werde aber nicht "aus Prinzip" eine AMD Karte kaufen. Wenn Vega nicht abliefert, wird es eine NVIDIA.
Beyazid schrieb:@Forumuser: Vielleicht geht es ihm nicht so sehr, dass er so überzeugt von Vega ist, sondern einfach nur darum, dass er mit seiner 970 (je nachdem wann er sie gekauft hat) ver*rscht wurde mit der 3,5 GB Sache und aus Prinzip erstmal auf Nvidia verzichtet
Ich habe eine Asus Strix 970 im Sonderangebot (250€ statt 380€) mit 2 Spielen 2015 gekauft.
Da war die 3,5GB Problematik schon bekannt (oder gerade im Gange), ich weiß aber nicht mehr, in welchem Umfang. Hät ich sie nicht zu dem guten Preis erhalten, wäre ich auf eine R9 390 ausgewichen, hätte dann aber wahrscheinlich auch ein neues Netzteil gebraucht. Außerdem hat es mir nicht geschmeckt, dass AMD da alten Wein in neuen Schläuchen gebracht hat. Mag ich nie besonders.
Neben dem Krüppel-RAM, der sich immer wieder bemerkbar macht, nervt mich aber auch das unglaublich unzuverlässige Nvidia Control Panel. Wobei, das ist seit 3~4 Monaten i.O. Während 2016 hats aber praktisch nur immer einen Neustart nach einem Treiber Update funktioniert, ansonsten nie.
Mir geht es also ums Prinzip, da ich Nvidia momentan für untragbar halte.
Ich halte es eigentlich nicht für nötig, das jedes Mal dazuschreiben zu müssen. Das kann sich jeder (so wie Bezayid) jeder selber ausdenken, warum man definitiv keine Nvidia Karte in nächster Zeit möchte.