Bericht Radeon RX Vega 64 & 56: Details und erste Benchmarks zu den Vega-Grafikkarten

Taxxor schrieb:
Moment, was wurde mit Maxwell nochmal eingeführt und dann im laufe des Jahres an die Spiele angepasst, was Leistung und Effizienz steigern soll, aber anscheinend am Anfang nichts ausgemacht hat?
Ach ja, TBR.

Auf den Slides im Artikel sieht man doch dass AMD selbst TBR nicht viel Potential zuschreibt. Je nach Game von ein paar Prozent bis maximal 30% Einsparung an gerenderten Daten. Und diese Einsparung wird sich bei weitem nicht 1:1 in einen Performancegewinn umsetzen.
 
Ka ob das schon gepostet wurde.
Der Youtuber "GoodOld Gamer" hat in den Kommentaren seines Vegavideos folgendes gepint:

"Confirmed by Gamer's Nexus Vega FE, and RX (as of now,) DO NOT have Tile Based Rasterization enabled. This was the single biggest advancement in Maxwell/Pascal. So Performance of RX Vega could jump up A LOT. According to GN AMD confirmed TBR will be operational by the time RX Vega is released. SO... at this point ignore all performance numbers as they will be different at launch."

Quelle:https://www.youtube.com/watch?v=63-sZzoC46Q&t=373s

Edit. Ich seh grad das war hier schon Thema.:freak:
Ergänzung ()

Cru_N_cher schrieb:
"ASUS Aura Sync lighting"

Früher hätte es keinen Nerd interesiert ob da was in seinem PC leuchtet heute machen die Schlipsträger aus dem Schrott ein Prestigeobjekt wie Autos wie weit sind wir nur herunter gekommen.

Du warst Anfang der 2000er auch nie auf Lans, oder?
 
Zuletzt bearbeitet:
Edit. Ich seh grad das war hier schon Thema.
Jo, wir warten alle noch auf den Wundertreiber. Wäre wirklich schade wenn es ein Hardware Problem ist, aber danach schaut es ja im Moment nicht aus?

Wenn der zum Start dann nicht bereit ist, wirds eklig, dann geht das ungewisse Warten auf einen ominösen Wundertreiber von vorne los.
 
stoneeh schrieb:
Auf den Slides im Artikel sieht man doch dass AMD selbst TBR nicht viel Potential zuschreibt. Je nach Game von ein paar Prozent bis maximal 30% Einsparung an gerenderten Daten. Und diese Einsparung wird sich bei weitem nicht 1:1 in einen Performancegewinn umsetzen.

Wenn es kein Potential hat, warum hat es Nvidia und warum versucht sich jetzt AMD daran?

Da es bis jetzt noch gar nicht aktiviert ist, scheint es damit wohl die größten Implementierungsschwierigkeiten zu geben und man ist bei AMD wohl noch weit weg von optimaler Implementierung.
Inwieweit es zum Release mehr FPS gibt und über die Monate werden wir sehen, aber das Feature wurde ja nicht umsonst mit in das Design aufgenommen. An 30-40% glaube ich auch nicht, aber an 10-20% im Laufe der Monate schon eher. Und ein paar % wird es auch mehr zur FE geben, wenn das erst am Release aktiviert wird, man arbeitet wohl heftig daran!
 
Ich habe mir wirklich ALLE Kommentare durchgelesen. Eigentlich müsste ich dafür einen Preis kriegen.
Blade0479 schrieb:
Wow, interessant, da würden mich mal die Vorteile zum Mischbetrieb interessieren, bin da noch Neuling
Vorteile ? Welche Vorteile ?
LyGhT schrieb:
Wer betreibt denn dann ebenfalls seine Vega Karte auf Stock?
Argument des Jahres.
wer betreibt seine 10x0 auf stock ?
LyGhT schrieb:
Nur so Nebenbei, die FE schneidet bei Userbenchmark mit 1%-7% mehr Performance als die 1080 ab.
1 Messung vs. 63.000
Uninstaller schrieb:
Also ganz ehrlich, wo ist da bitte die Objektivität?
Die wurde zuhause vergessen.
LyGhT schrieb:
MIT OC sind es bei anderen Tests bis zu 290-300 Watt.
Mit entsprechender Mehrleistung
375 Watt ist da was ganz anderes.
Ap2000 schrieb:
Subjektiv muss ich jedoch sagen, dass es absolut traurig ist, dass Nvidias Schwindel leider gezogen hat. Du bist der lebende Beweis. PR ist eben alles...
sind nicht alle so idealistisch & linksorientiert wie du AP ...
wenns danach geht müssten alle Käufer deutscher Automarken jetzt laufen ...
Taxxor schrieb:
Natürlich arbeiten sie weiterhin am Treiber, so wie sie es immer tun.
und wie immer wird dabei nix rauskommen
(sorry, der musste sein ^^)

RuShEr89 schrieb:
Aber das sie deswegen selbst nur Nachteile haben, sehen sie leider nicht.
Den nun kann Nvidia die Preispolitik bestimmen und das traurige ist, das es viele gibt
die alles kaufen, egal wie teuer, Hauptsache das schnellste soll es sein.
jaa und deswegen kaufen wir jetzt alle amd.
wir sind hier nicht bei der wohlfahrt
außerdem waren die amd gpus in letzter zeit eher knapp und stark überteuert.
t3chn0 schrieb:
Spiel doch mal BF1 in 2560x1440P auf Ultra mit 144Hz. Wenn du da auch die perfekten 144 FPS konstant möchtest, schaffst du dass mit einer 1080Ti auch nicht. Da brauchst du schon 2x 1080er im SLI, doch dafür brauchst du dann wieder eine enorm starke CPU um
die Diskussion hatte ich schon oft. ich z.b. schalte in shootern sehr viel ab, ich spiele multiplayer nie auf Ultra - schon allein wegen den schatteneffekten lohnt es sich, da man Gegner ohne einfach besser und vor allem schneller erkennt. dazu kommt der fps boost und das bessere maushandling
und schwupps reicht 1 karte - zudem was bringt dir da Ultra ... da zockt man mal ne Woche auf Ultra und denkt sich "WOW" und danach dreht mans zugunsten maxfps und Sichtbarkeit wieder runter.

Ich freue mich auf die ersten Tests - und vielleicht sogar nachtests ein halbes jahr später, wenn DER amd-treiberprogrammierer annähernd durch ist.
es scheint sich aber das selbe bild wie in letzter zeit abzuzeichnen: in einigen, speziell optimierten games ist die karte der absolute hit - in anderen eher nicht. wer primär BF1 & co spielt ist gut bedient.
Meine 1070 reicht gefühlt ewig - hoffentlich brennt sie kurz vor ablauf der garantie durch.:evillol:
 
Meine Beobachtung: Bei Spielen die üblicherweise nicht für Benchmarks verwendet werden, lahmt AMD total. Möge man mir mit Benchmarks das Gegenteil beweisen :)
 
Servus an alle.:schluck:

I finds recht schad dess es net so gworden ist wie AMD se das ausgemalt hat.
Aber bisher wurd a noch nix getestet.

I bin immernoch sehr zufrieden mit meiner HD 7970. Ein Übertaktungsmonster.
Bald will i aber aufrüsten und dann auch wie heißts so schön: Eine die wie Hulle abgeht.!

Auf die Tests bin ich gspannt vorher is doch eh alles nur Geplankel.:)

GTX 1080 Performance passt schon davon wird AMD auch net pleite gehn.
Und Treiber kommen ja auch. So ist es ja bei AMD oft gewesen.
Meistens ist es im zweiten Versuch (Navi dann) besser.

DonL_ schrieb:
An 30-40% glaube ich auch nicht, aber an 10-20% im Laufe der Monate schon eher. Und ein paar % wird es auch mehr zur FE geben, wenn das erst am Release aktiviert wird, man arbeitet wohl heftig daran!

Seh ich genau auch so.:)
Viele Features sind noch nicht angeschaltet und Directx12 die frische Schnittstelle birgt heftig Potenzial.
FP 16 für Wolfenstein wird auch eine spannende Gschichte.
 
Zuletzt bearbeitet:
Also ich habs bis Seite 11 geschafft zu lesen. Muss aber dann doch abbrechen. Weil, wenn auf den Seiten 12 bis 34 immer wieder dasselbe steht, dann frag ich mich wirklich: Ist CB ein Tech Forum, oder doch nur der Ort wo sich jeder auskotzen kann.

Alles was man liest ist: AMD Failed, gut das ist GTX Karte XY gekauft habe. Dann noch ein paar User die Pro AMD posten. Aber das eigentliche Thema, die Vorstellung der neuen Vega Karten, geht im Grunde fast unter.
Wer eine nVidia Karte hat und damit glücklich ist, der muss das nicht in jeden AMD Thread tragen. Weil es völlig uninteressant ist. Wer von dem Launch der Vega Karten entäuscht ist, der muss das nicht auf Seite 1-34 kund tun. 1 mal reicht.
Achja und der Stromverbauch. Das ist Thema Nummer eins, weil das ist das überhaupt wichtigste. Stundenlang vorm Rechner sitzen und Sinnlosen Unsinn in Foren schreiben ist also kein Stromverbrauch?

So vieles, worüber man sich aufregen könnte. Aber dann würde man hier längere Posts schreiben wie die von Chismon.

Am Ende wird hier eine neue GPU Architektur veröffentlicht, die halt noch Optimierungen bedarf und noch nicht alle Features optimal nutzt. Man wird sehen, wie viel von der Rohleistung noch auf die Straße gebracht wird. Neutral betrachtet, ist es eine gute Karte, die ordentlich Leistung bietet und 95% der hier postenden User genug Power im Rechner hätte. Aber es ist halt eine rote Karte und keine grüne. Somit ist sie Pfui. ;)

Ich freu mich jedenfalls auf die Custommodelle von Saphire. Asus hat ja schon mal eins vorgelegt was nicht schlecht aussieht.
 
Bei aller Liebe zu AMD, der "Launch", wenn man es so nennen will, ist einfach peinlich. Man vertröstet die Fans bis zur Kotzgrenze, man zeigt noch nicht mal einen Livestream, und man vertröstet die Leute nochmal 2 Wochen bis es Benches gibt. Der Duke Nukem der GPU Launches.

Persönlich bin ich immer noch der Meinung man stapelt tief, jedoch gehen mir langsamd die Gründe aus warum das noch sinnvoll wäre. Einen Konter von Nvidia wird es spontan so oder so nicht geben, außer man released mit einer Brechstange eine Titan Xp Black? Naja...

Bzgl. Folie von DSBR. Ihr lest aber schon, dass das nur eine Angabe ist wieviel % man sich an Bytes spart? Also vermutlich auf die Bandbreite bezogen. Komisch dass hier Leute schon wieder +30% FPS sehen.

Was sich unerwartet als Zugpferde rausstellen könnte ist doch tatsächlich das Rapid Packed Math, also die FP16 Funktionen. Dass ist hier bei Wolfenstein 2 sicher kein Zufall nachdem man angekündigt hat mit AMD eng zusammenarbeiten zu wollen.

Ziemlich bescheuert finde ich auch die Versionen der Karten. Ich hätte stark darauf gehofft, dass die Standard RX Vega eine schwarze Verkleidung bekommt, die zumindest optisch gleich verarbeitet ist wie die Frontier Edition bzw. eben die Limited Edition. Auch wäre es sicher krass gewesen, hätte man der Limited Edition 16GB spendiert. Zwar mit saftigem Aufpreis, aber dann hätte sich der Zusatz "Limited" auch wirklich bemerkbar gemacht.
Das Standard Design ist einfach nur langweilig. Zudem finde ich es auch schon fast frech, wenn man die Limited Versionen nur in den Packs bekommt.

Wegen HBCC bin ich doch stark verwundert, dass das das Memory Management so arg umkrempelt. Ich hatte es mal eine Weile aktiviert, und eigentlich keinen Unterschied bemerkt. Da muss ich doch hinterfragen, muss die Software nun damit umgehen können oder nicht? Zudem, wieso sollte Unigine Heaven davon profitieren.
Ich werd das mal eben nachstellen, und bei der Gelegenheit auch Quake Champions mit seinen 13GB Vram Belegung nachprüfen.
 
r4yn3 schrieb:
B
Persönlich bin ich immer noch der Meinung man stapelt tief, jedoch gehen mir langsamd die Gründe aus warum das noch sinnvoll wäre.

Ich glaub da nicht dran, wäre AMD schön blöd.
Aber Verbesserungen de eben später kommen ist schon zu glauben.
AMD wird einfach ned fertig gworden sein mit der Entwicklung. Vor allem Software.
Wenn ich mir heutige Computerspiele anschaue dann ist das quasi ein Projekt ohne Ende. Niemals richtig fertig.
Ein langer und steiniger Weg kann aber auch zum Ziel führen, sag i jetzt mal.:)
 
Mitch2211 schrieb:
Hört sich für mich eher nach jemanden an, der gerne mehr würde aber nicht das nötige Kleingeld hat. Dann muss man sich eben auch mal Sachen schön reden.
OT: Seit wann ist eigentlich The Witcher (ich gehe mal davon aus, dass du nicht den ersten Teil meinst) ein grafisch anspruchsloses Spiel?

Nicht im Geringsten, ich könnte mir auch problemlos eine Titan XYZ kaufen, aber ich möchte es einfach nicht.

Ein Triple A Game kostet 60 €, dann brauche ich dazu noch eine 1080 Ti für 750 € - wtf. Und dann nur 6-10 Spaß daran. Natürlich mal X für einige weitere Titel, aber das ist schon teuer für ein paar hübsche Pixel.

Witcher 3 läuft übrigens wunderbar auf einer Mittelklassekarte - in FHD. Das ist die Auflösung, die die meisten Spieler, und ich sage bewusst nicht "Gamer" nutzen.

Es gibt mit Sicherheit mehr Otto-Normal-Spieler, die nicht einmal wissen, wie man einen PC schneller bekommt, als uns Fans!

P. S.: Straßenpreise für Vega abwarten. Angenommen die sind nicht interessant für Mining, dürfte das zeitig verlockend werden.
 
Beitrag schrieb:
... finde ich die Bundles von AMD gut, persönlich kann ich aber leider nichts damit anfangen. Ich hab zwar vor in Zukunft irgendwann mal einen Freesync Monitor anzuschaffen, das soll dann aber ein 144 Hz WQHD sein und nicht so ein komisches Ultra-wide-Ultra-HD-Gedöhns. Und wenn sowohl Ryzen als auch Vega früher erschienen wären, hätte ich vom Ryzen-Rabatt profitieren können, das ist nun aber auch nichts mehr ... unterstütze AMD natürlich gerne, meine Kaufentscheidung wird davon aber erst mal nicht beeinflusst. Vega 56 muss sich schon gegen die 1070 behaupten können und/oder billiger sein. Wenn beide gleichwertig sein sollten, weis ich auch noch nicht so recht. Dann könnte ich entweder die 1070 nehmen und mit dem Nvidia Treiber glücklich werden oder die Vega nehmen, mich mit dem Treiber rumärgern aber auf lange Sicht evtl. beachtliche Performanceverbesserungen bekommen.

Naja, das war bei AMD schon immer so Forrest Gump ("box of chocolates") mäßig, dass man vorher nicht weiss, was man bekommt, auch bei der relativ beliebten HD 7000er Serie, durch zusätzliche GHz Edition (wer sagt, dass so etwa nicht bei Vega auch im Frühjahr/Sommer 2018 noch nachgereicht werden könnte?) und das reifen beim Kunden bzw. nachträgliche Optimierung.

Wenn Du nicht alleine von ein paar %/fps bei der Rohleistung ausgehst (was sich bei nutzen von Free-Sync vs. G-Sync nicht bemerkbar machen wird, zumal die RX Vega Karte wegen moderner Architektur und HBM2 bessere min fps/Frametimes haben dürfte als die GTX 1070, selbst wenn die unwichtigeren avg. fps leicht darunter liegen können im ein oder anderen Spiel), sondern aus Basis der gleichen Leistungsklasse mit größerem Steigerungspotential und technischer Überlegenheit (aufgrund der Features und als erste komplette DX12.1 Karte) Dich entscheidest, dann hat die GTX 1070 gegen eine 56er Vega RX klar ausgedient, das dürfte man jetzt schon folgern können (Gleichwertigkeit ist da nicht wirklich gegeben).

Falls Du auf Krypto-Mining oder Effizienz als Nische aus bist, dann hat die GTX 1070 sicherlich auch nach dem Marktstart der kleinen Vega RX (basierend auf Vega10 Chip) Ihre Daseinsberechtigung, aber empfehlenswert ist sie dann m.E. nur noch in Ausnahmen, da mittlerweile angestaubt und technisch veraltet.

Soweit hänge ich mich vor dem unabhängigen Tests Mitte August bei der kleinen RX Vega jetzt gerne schon im Voraus aus dem Fenster (zumal die technischen Daten und Features eine klare Sprache - pro RX Vega 56 und gegen GTX 1070 - sprechen und die Rohleistung nicht allzu viel im Vergleich zum 64er Vollausbau einbüßen dürfte).

Hätte ich bei der 56er lieber Leistung auf oder leicht über GTX 1080 Niveau gehabt/gesehen bei gleichem Verbrauch wie jetzt für vielleicht 449 US$ (?) ... ja, na klar ... aber so ist es leider nicht gekommen und GPUs sind nun 'mal leider kein Wunschkonzert bzw. eierlegende Wollmilchsäue. Neben der 56er könnte sich die Nano noch als gelungen entpuppen, aber der angesetzte Preis und die evt. zu geringe Leistung einer solchen dürfte problematisch werden und macht mir Sorgen.

Wenn es nVidia sein muss, dann wartet man besser noch ein halbes Jahr und bekommt dann hoffentlich einen Mehrwert mit den Gaming Volta Karten (hoffentlich mehr als nur ein weiterer getunter Maxwell Shrink, genug Geld für echte Innovationen dürfte nVidia allemal auf der hohen Kante haben und angesichts der noch höheren Preise die dann wohl für 60er und 70er Modelle abgerufen werden dürften ... bleibt noch die Hoffnung auf ein starkes anziehen des Eurokurses gegenüber dem US$ bis Frühjahr 2018).

Ich hoffe darauf, dass die AMD/RTG Bundle-Politik auch bei den GPU-Boardpartnern/RX Vega Custom-Modellen Einzug hält, dann könnte das für mich evt. auch interessant werden mit einem passenden FreeSync(2) Monitor oder R7-2700X plus passendem (MSI, Gigabyte oder BioStar) Board :).

Gut finde ich die Aktion allemal und hoffe, die Aktion wird im kommenden Jahr auch noch weitergeführt und ausgebaut (auf Free-Sync 2 Monitore und Pinnacle Ridge/Zen+ CPUs und Boards) werden von AMD + Boardpartnern, vielleicht schlage ich dann auch zu.

Dark_Knight schrieb:
So vieles, worüber man sich aufregen könnte. Aber dann würde man hier längere Posts schreiben wie die von Chismon.

Wohl war :D, ich weiss, dass meine Ergüsse wegen Ihrer Länge nicht unbedingt populär bei einigen hier sind ;).
 
Zuletzt bearbeitet:
Wenn ich mir zum einen die Steam Hardwareumfrageergebnisse anschaue und zum anderen, beispielsweise, die Verkaufszahlen von Enthusiastenkarten im Bereich von 400-600€ bei Mindfactory, dann denke ich AMD ist mit der Vega genau im richtigem Segment unterwegs. Nämlich da wo Geld verdient wird.
War mit Polaris vor einem Jahr genauso (vor dem Mininghype).
 
Für das Segment brauchst du aber auch die passende Leistung . Und die hat Vega scheinbar nicht. Bzw keine Bessere, als die Konkurrenz. Nur halt mit mehr Verbrauch und 1 Jahr zu spät. Uns da hilft es auch nicht, wenn in einem Jahr die Rohleistung durch Treiber doch mal genutzt wird. Dann kann man sich Vega auch erst in einen Jahr holen.
 
r4yn3 schrieb:
Bzgl. Folie von DSBR. Ihr lest aber schon, dass das nur eine Angabe ist wieviel % man sich an Bytes spart? Also vermutlich auf die Bandbreite bezogen. Komisch dass hier Leute schon wieder +30% FPS sehen.

Was sich unerwartet als Zugpferde rausstellen könnte ist doch tatsächlich das Rapid Packed Math, also die FP16 Funktionen. Dass ist hier bei Wolfenstein 2 sicher kein Zufall nachdem man angekündigt hat mit AMD eng zusammenarbeiten zu wollen.

Ziemlich bescheuert finde ich auch die Versionen der Karten.

Wegen HBCC bin ich doch stark verwundert, dass das das Memory Management so arg umkrempelt. Ich hatte es mal eine Weile aktiviert, und eigentlich keinen Unterschied bemerkt.

Nun, ich halte auch eher im Schnitt jetzt 10% an Rohleistungsgewinn durch den DSBR für realistisch (später vielleicht 20+%, wenn die Optimierung darauf zum Standard wird/die Technologie besser implementiert wird, man muss bedenken, dass AMD da noch am Anfang ist und die Programmierung der Entwickler und z.T. der Treiber von AMD bisher DSBR nicht optimal einsetzt), aber das ist eben auch nur ein Teil der Architektur, der deutlichen Mehrnutzen im Laufe der Zeit bringen wird.

Ja, sehe ich auch so, Rapid Packed Math und Primitive Shaders, aber auch die aus dem Konsolenbereich stammenden (AMD/RTG exklusiven) Shader Intrinsics, kommen bei Wolfenstein 2/zukünftigen Bethesda-Spieletiteln immer mehr Bedeutung zu und die junge Partnerschaft mit einem relativ großen/wichtigen Publisher wie Bethesda war eine grandiose (Gegen-)Strategie (zu nVidias Gameworks- und Bundle-Vorzeigespiele-Politik) und trägt jetzt schon erste Früchte :).

Hoffentlich macht das Schule und andere Entwickler schicken sich dann auch mehr an die derzeit deutlich innovativere/reichhaltigere Architektur der AMD GPUs auszureizen und dadurch Mehrwert zu generieren/die wirkliche GPU-Leistung/TFLOPS zu entfesseln.

Nö, die Design und Paket-Politik finde ich eigentlich ok, zumal diese sich hoffentlich noch ausweiten wird, so dass evt. auch interessante Produkte in Zukunft für Dich dabei sein könnten, auch wenn Du sie jetzt noch nicht mitnehmen kannst bzw. für Dich jetzt noch keinen Nutzen daraus ziehen kannst, der Ansatz ist allemal löblich/kundenfreundlich.

Im Endeffekt sind die Äußerlichkeiten doch nur nebensächlich und die Leute, für die es wichtig ist (bspw. Modder) sollen eben mehr zahlen für wertigere und/oder schickere Materialien und schöneren Look und man muss den Paketbonus (enthaltene Spiele sowie Rabatt auf Monitor- oder CPU+Board-Bundle-Kauf) ja nicht unbedingt für sich selbst anwenden, sondern kann mit Bonus für andere einkaufen oder damit erworbenes weiter verkaufen/geben, so kritisch oder auch nur zwanghaft sehe ich das nicht, weil man (wenn auch nicht mit vorschwebender "Maximalästhetik") die Leistung/GPU immer noch in der Standardausgabe ohne Paketzwang/Paketaufpreis bekommt.

Naja, schwierig, denn mit 16 GB HBM2 (und dazu noch HBCC bis zu 64GB VAS) hast Du mehr als ausgesorgt für einige Jahre ;).
 
Zuletzt bearbeitet:
Ich muss die Nano haben ich muss muss muss das ding ist einfach nur extreme der volle Shader count von Vega im Mini format das ist Egineering kunst pur :D

Einfach nur Premium ohne Ende das nenne ich Prestigeobjekt und nicht so nen leuchtender Feuerball im Rechner.

Diese anderen Editions sind alle der Ausschuss beim Binning dagegen :D

Seit Fiji fasziniert mich diese Edition nun schon aber Fijii war einfach nur lackluster.

Hoffentlich bekommt man überhaupt eine wenn sich die ganzen Miner draufstürzen gibt es wieder ein Disaster.

Das die zu doof sind HBM richtig zu nutzen macht aber noch etwas Hoffnung, das sie sie ignorieren ;)
 
Zuletzt bearbeitet:
Also in Heaven kann ich leider keinen Unterschied feststellen. Dafür weiß ich aber nun wieso ich mit der Treiberbastelei in Superposition mehr Punkte habe, HBCC war immer an. Gerade mal nachgetestet, HBCC Off ca. 3600 Punkte in Superposition Extreme, HBCC On sinds ~4000. Ich möchte zwar das Ergebnis noch von anderen Usern verifizieren lassen, aber ja, scheinbar macht der doch irgendwas anders.
 
Oh man der Bericht lässt wirklich nichts gutes erahnen, so langsam frage ich mich echt was hat AMD bitte in 2 Jahren Entwicklungszeit gemacht ?

Mal dahingestellt wie das teil jetzt im Vergleich zum Nvidia Gegenstück abschneidet, aber wenn ich sehe wie es im Vergleich zum direkten Vorgänger der FuryX so abschneidet frage ich mich doch was haben die gemacht. 2 Jahre Entwicklung für das ? Sorry aber dann hätte man auch den Fury Chip mit 8GB bestücken und ihn höher Takten können, käme glaube ich auf das selbe. Ich würde fast behaupten, wenn man Vega auf 1000 MHz runter takten würde wie ne Fury währe sie gleichschnell, würde gerne mal soeinen Vergleich sehen, wenn wir dann nämlich gleiche Leistung bei gleichem Verbrauch hätten dann währe das schon sehr peinlich, aber ich kann mir gut vorstellen, das es so währe.

p.s. aussagen wie die Karte lässt sich auf 1700 MHz und mehr übertakten kann man bei AMD auch nur mit vorsicht genießen, ich sag nur Fury war auch nicht gerade Overclockers Dream wie angekündigt ^^
 
Das Problem ist doch, daß in der angepeilten Preisregion der Vega 56 aktuell die RX 580 gehandelt wird. Kaum anzunehmen, daß die zu gleichen Preisen im Handel erscheinen werden :freak:
 
Audi 80 schrieb:
Oh man der Bericht lässt wirklich nichts gutes erahnen, so langsam frage ich mich echt was hat AMD bitte in 2 Jahren Entwicklungszeit gemacht ?

Mal dahingestellt wie das teil jetzt im Vergleich zum Nvidia Gegenstück abschneidet, aber wenn ich sehe wie es im Vergleich zum direkten Vorgänger der FuryX so abschneidet frage ich mich doch was haben die gemacht. 2 Jahre Entwicklung für das ? Sorry aber dann hätte man auch den Fury Chip mit 8GB bestücken und ihn höher Takten können, käme glaube ich auf das selbe. Ich würde fast behaupten, wenn man Vega auf 1000 MHz runter takten würde wie ne Fury währe sie gleichschnell, würde gerne mal soeinen Vergleich sehen, wenn wir dann nämlich gleiche Leistung bei gleichem Verbrauch hätten dann währe das schon sehr peinlich, aber ich kann mir gut vorstellen, das es so währe.

p.s. aussagen wie die Karte lässt sich auf 1700 MHz und mehr übertakten kann man bei AMD auch nur mit vorsicht genießen, ich sag nur Fury war auch nicht gerade Overclockers Dream wie angekündigt ^^

Oh man ich gebe es auf das darf einfach nicht wahr sein GFX9 ist vielfach ausgereifter als es Fiji war.

Ihr seht einfach immer nur die Balken (Penislänge) aber weniger die Möglichkeiten der Umsetzung besserer Grafik mit stabilierem output Ergebnis.

Genau dort liegt die Stärke von GFX9 zu einem ordentlichen Preis der sich je höher man den Penis haben möchte auf den Stromverbrauch auswirkt.

und mit mehr RPM usage wirst du auch noch sehen wie dein Fiji davon nicht mehr profetiert und Vega wegrennt.
 
Zuletzt bearbeitet:
Zurück
Oben