News Radeon Vega: Preis für Frontier Edition mit Luftkühlung liegt bei 1.199 USD

Ratterkiste schrieb:
Wie hoch der Sprung durch Tiled Based Rendering ausfallen wird kann zum jetzigen Zeitpunkt im hier Forum maximal jemand sagen, der ein NDA unterschrieben hat. Wenn der Sprung von Polaris->Vega aber in ähnlicher Größenordnung stattfindet wie der von Kepler->Maxwell, dann dürfte AMD sehr konkurrenzfähig sein.

Naja sagen muss mir das keiner, durch ein Paar simple Rechnungen kann das recht gut abgeschätzt werden.

GTX 780 Ti Kepler: 5,04 TFLOP (kein tile based renderer)
GTX 980 Ti Maxwell: 5,63 TFLOP (nur +12% GFLOP zu 780Ti dafür +53% im CB performance rating, vermutlich großteils dank tile based renderer)
Schub durch tile based renderer dürfte bei etwa 35% liegen. Ist nur meine Milchmädchenrechnung. Klar neue Architektur, es gab andere verbesserungen usw...
GTX 1080 Ti: 11,5 TFLOP (auch tile based renderer, +104% GFLOP zu 980Ti aber nur +66% im CB performance rating)

Schauen wir mal Vega an:
Furx X: 8,6 TFLOP kein tile based renderer, 1080 Ti ist derzeit 73% schneller im CB raiting
Vega: 13 GFLOP (+51% GFLOP zu Fury X)
Multipliziere ich +35% vom tile based renderer dazu wären wir bei +103% im CB performance rating zu Fury X
Meine Glaskugelrechnung sagt, dass Vega 17% schneller als 1080 Ti sein wird.

Aber wie immer ist das nur meine höchstpersönliche Spekulation.
Siehe 1080Ti: trotz vielen Terraflops schaffte die 1080Ti es nicht diese Leistung auch nur annähernd auf die Strasse zu bringen (GDDR5X lässt grüßen?).
 
Zuletzt bearbeitet:
yurij schrieb:
Aber wie immer ist das nur meine höchstpersönliche Spekulation.
Siehe 1080Ti: trotz vielen Terraflops schaffte die 1080Ti es nicht diese Leistung auch nur annähernd auf die Strasse zu bringen (GDDR5X lässt grüßen?).

Naja, nur hat Vega jetzt nicht mehr reale Bandbreite durch die 2 Stacks. 482 vs 483GB/s
Die Frage ist nun was holt AMD mit Kompression etc. raus und wie schaut es mit OC des HBM Speichers aus.
Wenn ich Poalris sehe könnte mit der Kompression von haus aus eine etwas höhere Bandbreite drin sein.
Ich erwartete da aber keinen großen Vorteil durch HBM wie noch bei Fiji.
 
HBM2 OC wird bestimmt ein interessantes Ding. Wäre schön wenn rund 1333MHz per OC drin wären. Das Entspräche dann wieder den 682GB/s von 666MHz HBM1 und somit deutlich mehr als den 483GB/s der FE.
Aber gilt dann halt auch zu beachten, dass die großen 2 x 8GB Stacks einer FE sich voraussichtlich weniger stark takten lassen als die 2 x 4GB Stacks auf den Gaming-Karten. Will sagen es existieren zwei verschiedene Ausführungen von HBM2-Stacks.

Taktstufen könnten dann so aussehen:
HBM1 -> 500.00 /545.45 /600.00 /666.66MHz
HBM2 -> 1000.00/1090.90/1200.00/1333.33MHz


HBM1_666MHz.jpg
 
Zuletzt bearbeitet:
Interessiert es professionelle Anwender überhaupt wie viel Watt die Karten brauchen? Wenn die Stromrechnung bei professionellen Anwendern über Erfolg oder Misserfolg entscheidet, dann läuft da sowieso etwas schief.
 
Edelhamster schrieb:
Nene, unter LN2 gab es 1000MHz HBM1 mit dann 1024GB/s -> http://wccftech.com/asus-radeon-r9-...y-unlocked-fury-features-1-tbs-bandwidth-ln2/

Mit 666MHz bin ich ja selbst gerade die ganze Zeit unterwegs mit der Stock AiO.
Der Screenshot oben ist entsprechend auch von mir selbst ;)
Anhang anzeigen 628493

Schon ~150 MHz mehr aufn Vega HBM2 wäre klar ein win gegenüber der 1080Ti.
Leider glaube ich auch das das schon bei der Taktsteigerung von HBM1 zu 2 aufgefressen wurde.
Ich denke aber schon das max. 100MHz HBM OC drin sind mit glück bei der Silicon Lottery aber 300?:lol:
Wenn es überhaupt zugelassen wird von der Ref.

Ist aber nur meine Einschätzung.
 
Zuletzt bearbeitet von einem Moderator:
Hieß es nicht ständig man kann den HBM von Fiji nicht übertakten? Seit wann geht das und wieso bencht sowas niemand? Oder ist es nur der Wert, wo keiner weiß was man wirklich übertaktet und sich die Performance ohnehin nicht ändert?
 
HBM Overclocking ist durchaus möglich. Eben in den entsprechenden Schritten 500.00 - 545.45 - 600.00 - 666.66MHz. ( bei HBM der 1 Gen.)
Effektiv sind das dann also, in der mir bekannten Range, 1000-1333MHz / 512-682GB/s, obwohl es nach oben natürlich weiter geht. Legt man OC-Werte zwischen diesen festen Staffelungen an, wird entsprechend immer zum nächstliegenden glatten Wert auf- oder ab-gerundet.
Im Extrem-Beispiel mit der Asus-Karte lagen dann z.B. 1000MHz, was effektiv 2000MHz entspricht, mit dann 1024GB/s unter LN2 an.
Mit meinen eigenen Karten laufen, wie ich mittlerweile festgestellt habe, die 666MHz vollkommen stabil. Die Stock-Kühlung reicht dafür locker, dennoch wird HBM mit erhöhten Temperaturen wohl instabiler.
Standard liegen bei HBM1 1,3V an. 4 Stacks mit je 1GB Speicher benötigen im Idle 0,9-1,3W, unter Volllast zwischen 16,0-17,5W.
Eine Spannungserhöhung des Speichers ist dabei aktuell nur über eine Bios-Anpassung möglich. Für die 666MHz bei mir brauche ich das aber nicht.

Grundsätzlich hätte man das Thema HBM vs GGDR5/X deutlich näher in den Medien betrachten können. Als ich angefangen habe mich mit dem Thema zu befassen, war es schwierig an erste Informationen zu kommen.

Achjo, die Ergebnisse des HBM-OC lassen sich z.B. mit Aida64 messen.
Noch als Info, das Overclocking ist dabei nicht über den Radeon-Crimson selbst zugänglich, man benötigt stattdessen z.B. die Sapphire-Trixx Utility. Der neu angelegte Wert wird dann aber im Crimson richtig ausgelesen.

Ich freu mich schon richtig auf die 2nd Gen von HBM.
 
Zuletzt bearbeitet:
Das sind ja in der Theorie sehr schöne Werte, aber wo sind die Benchmarks?
 
Größte Unbekannte ist in meinem Augen die Fertigung. Abhängigkeit der Spannung die man für den Takt braucht explodiert da schnell der Verbrauch. Polaris geht bei gleicher Fertigung eher schlecht.

@HBM OC

Dürfte hier deutlich schlechter gehen als bei Fiji. Man erreicht ja auch nicht den Wunschtakt den man gesetzt hatte, OC vielleicht schon aber das dürften weit weniger Headroom sein als bei den 4 HBM Die bei Fiji mit halbem Takt.
 
Zuletzt bearbeitet:
DarkerThanBlack schrieb:
Free/G-Sync ist kein Wunderfeature, sondern nur ein Hilfsmittel - eine Unterstützung um mehr aus seiner Hardware zu holen, sie quasi effizienter zu machen, denn nun braucht man keine größerer stromhungrigere und teurere GPU mehr um das gleiche Ergebnis zu erzielen. Natürlich sind auch dort Grenzen gesetzt. Aus einer GTX1060 macht man keine GTX1080Ti. Aber man benötigt nicht unbedingt eine GTX1070 oder kauft sich die GTX1070 und spart sich das Geld für die GTX1080 ect. Bei AMD ist Freesync sogar noch effektiver, weil der Aufpreis der Monitore deutlich geringer ist und AMD mit ihren Midrange-Karten so noch gut mitspielen können.

Das hast Du gut auf einen Punkt gebracht, ob nun eine GTX 1070 mit G-Sync wirklich mit einer GTX 1080 ohne G-Sync mithalten kann ... ja, das wäre sicherlich 'mal ein neuer lohnender Testartikelansatz für Wolfgang/CB ;)!

Ebenso kann man dann das gleiche Spiel bei AMD (bspw. RX 570 mit Free-Sync vs. RX 580 ohne Free-Sync) durchziehen, idealerweise dann schon mit dem Vollausbau und der beschnittenen Versionen der neuen Oberklassekarten von AMD.

Falls AMD wirklich 3 GPU-Ableger eines (RX Vega) Chips herausbringen sollte und ein schlagkräftiger Konkurrent zur GTX 1080Ti/Titan Xp das "Schlachtfeld" betritt, wäre auch ein Vergleich von GTX 1080Ti vs. GTX 1080+G-Sync und entsprechenden AMD Gegenstücken (RX Vega "Nova" vs. RX Vega "Eclipse"+Free-Sync) interessant.

Momentan bin ich eher geneigt eine GPU-Stufe höher zu kaufen als einen komplett neuen 27" IPS Monitor mit Sync-Technologie (und bei G-Sync zusätzlichem nVidia-Modulaufpreis), da ich wohl deutlich günstiger damit wegkomme.

Also von den nVidia Volta GV104 Karten erwarte ich mindestens 12 GB GDDR5X (idealerweise mit 14 Gbps) Speicherausstattung und bei der beschnittenen Variante (GTX 1170/2070) auch Leistung etwa mittig (mit Tendenz zur leistungsstärkeren GPU wegen hoffentlich teil-erneuerter Architektur) zwischen GTX1080 und GTX 1080Ti (also vielleicht GTX 1080 + 20% = GTX 1170/2070), auch wenn der Einstieg in diese untere Volta Oberklasse von nVidia dann bestimmt schon bei 449-499Euro angesiedelt sein dürfte.

Dann wird verglichen und die GTX 1170/2070 gegen die beiden passenden AMD Pendants - leicht darüber (RX Vega "Nova"?) und darunter ("RX Vega Eclipse?") liegend - abgewogen und bei mir zumindest eine Kaufentscheidung getroffen werden Anfang kommenden Jahres.
 
Zuletzt bearbeitet:
Chismon schrieb:
Das hast Du gut auf einen Punkt gebracht, ob nun eine GTX 1070 mit G-Sync wirklich mit einer GTX 1080 ohne G-Sync mithalten kann ... ja, das wäre sicherlich 'mal ein neuer lohnender Testartikelansatz für Wolfgang/CB ;)!

Was gibt es da denn zu testen? Das eine bringt gute FPS, das andere gute Synchronisation von Monitor und GPU - zwei völlig verschiedene Dinge deren Priorität man für sich allein entscheiden muss. Da vergleicht man Äpfel mit Birnen.
 
Leli196 schrieb:
Was gibt es da denn zu testen?... eine bringt gute FPS, das andere gute Synchronisation von Monitor und GPU - zwei völlig verschiedene Dinge deren Priorität man für sich allein entscheiden muss.

Das sehe ich anders, auf Preis-Leistungs-Basis kann man das schon vergleichen und ob/ab wann ein Monitor mit Sync-Technik zu einer günstigeren GPU Sinn macht oder eine leistungsstärkere GPU lohnender ist.

Eine Anschaffung eines Full HD G-Sync 27" Monitors plus GTX 1070 bspw. dürfte mindestens genauso viel, aber meist deutlich mehr kosten als wenn man bei einem seinem bisherigen Full HD 27" Monitor bleibt und sich eine GTX 1080Ti dazu kauft und ich vermute, dass man mit der G-Sync GTX 1070 Kombo einer GTX 1080Ti frametechnisch nicht das Wasser wird reichen können, da spätestens in WQHD die Leistung der GTX 1070 bei Maximaleinstellungen in einigen aktuellen Spielen nicht mehr reichen wird um G-Sync noch bei ausreichenden Frameraten laufen lassen zu können.

Natürlich ist auch das Nutzerprofil und Ansprüchen/Anwendungsszenario entscheidend, ob man bei per Snyc-Technologie noch Spielbarkeit erreichen will oder bei hoher Framerate die per Sync-Technologie stabilisieren will. Wie erwähnt, abseits von Rennspielen und Egoshootern halte ich die Sync-Technik für komplett überschätzt und nicht notwendig, aber andere Leute mögen das anders sehen ...

Gewiss ist der Monitor und dessen Snyc-Frequenzbereich selbst auch ein großer Faktor und davon müssten dann wohl einige (unterschiedlicher Preisstufen) zur Verfügung stehen um so einen Test interessanter zu gestalten, aber ich denke nicht, das sich ganz eindeutig bestimmen lässt was die bessere Lösung bzw. der bessere Ansatz ist.

Solch ein Testartikel könnte hilfreich sein, wenn man eben vor so einer Kaufentscheidung stehen sollte (weniger leistungsstarke GPU+Sync-Monitor vs. leistungsstärkere GPU) und dass man hier dauernd nur darüber liest, wie angeblich wichtig die Sync-Technik doch sein soll in Kombination mit den Anschaffungskosten eines Monitors (z.B. offene A-/Free-Sync vs. teure, propriertäre G-Sync-Technik) und einer GPU, kann man ebenso mit einer leistungsstärkeren/teureren GPU bei Sync-Monitorersparnis argumentieren.

Für mich ist bspw. die Free-/G-Sync-Technik kein Muss und ich sehe diese alleine überhaupt nicht als Kaufargument für einen Monitorneukauf (steht meist absolut nicht in Relation zum Nutzen) an und ja, ich spiele auch Ego-Shooter oder Rennspiele gelegentlich und habe die Free-/G-Sync-Technik bisher nicht vermisst und sehe nur wegen dieses einen Features einen Monitorkauf als unangebracht an, es sei denn man spielt vorwiegend Ego-Shooter oder Rennspiele und ist darauf angewiesen oder es ist insgesamt günstiger als eine 1 oder 2 Stufen bessere GPU ... ansonsten kann man sich das Geld dafür und die Umweltbelastung besser sparen und besser in eine stärkere GPU investieren.
 
Zuletzt bearbeitet:
Chismon schrieb:
Das sehe ich anders, auf Preis-Leistungs-Basis kann man das schon vergleichen und ob/ab wann ein Monitor mit Sync-Technik zu einer günstigeren GPU Sinn macht oder eine leistungsstärkere GPU lohnender ist.

Da es rein subjektiv ist, kann man es einfach nicht objektiv vergleichen. Wenn du von "Test" redest, dann denke ich da schon an etwas solides, wissenschaftliches. Natürlich kann CB hingehen und sagen: "wir finden ...", nur wäre das dann kein Test, sondern eine Meinung.

Das erinnert mich auch an ULMB vs. ASync. Das kann man auch nicht objektiv vergleichen - die einen finden dies besser, die anderen das.
 
Leli196 schrieb:
... rein subjektiv ist, kann man es einfach nicht objektiv vergleichen. Wenn du von "Test" redest, dann denke ich da schon an etwas solides, wissenschaftliches. Natürlich kann CB hingehen und sagen: "wir finden ...", nur wäre das dann kein Test, sondern eine Meinung.

Das erinnert mich auch an ULMB vs. ASync. Das kann man auch nicht objektiv vergleichen - die einen finden dies besser, die anderen das.

Ja gut, dann kann man sich hier und anderweitig aber auch jeden Test schön oder schlecht reden, wie es einem gefällt. Beim TV/in Filmen werden ja auch noch weniger fps als (gerade noch) akzeptabel angesehen als die 30fps bei Computerspeilen und wurden auch willkürlich 60 fps für flüssigen Spieleindruck als Voraussetzung gesetzt, aber das hängt natürlich von der individuellen Wahrnehmung ab und ist auch komplett subjektiv und mit Sicherheit nicht wissenschaftlich vorgegeben.

Natürlich ist das nicht einfach und will geplant und organisiert sein, aber wenn man bspw. eine kleine Auswahl an 3 Free-Sync als auch G-Sync Monitoren mit gleicher Diagonale hätte (z.B. 27" Full HD, WQHD und UHD/4K Monitore mit ähnlichen Sync-Frequenzbereichen und gleicher Panel-Technik, also nicht notwendiger Weise alles Produkte vom gleichen Hersteller) und dazu eben 3 GPU Modelle von nVidia (z.B. GTX 1060, GTX1070 und GTX 1080Ti) und AMD (z.B. RX 580, RX Vega "Core" und RX Vega "Nova") nehmen würde und in einem Testparcours von 6 anspruchsvollen, relativ aktuellen Spielen (z.B. 2x Rennspiele (bspw. Forza Horizon 3, F1 2017) und 2x Egoshooter (bspw. Ghost Recon Wildlands, Battlefield 1) plus 1x Action-RPG (bspw. Deus Ex Mankind Divided) und 1 x Action Adventure (bspw. Rise of the Tomb Raider)) und dann Randbedingungen wie z.B. 40 und 60 fps in verschiedenen Detailstufen (z.B. mittel, hoch, und ultra) in den 3 Auflösungsstufen vorgibt (was notwendig ist; ob man dazu nun die Eindrücke mehrerer Redakteure zu Rate zieht oder sich an möglicher Literatur oder Studien/Tests in ähnlichem Bereich orientiert, ist dann Entscheidung der Tester) und das mit gemittelten aktuellen Marktpreisen in Relation setzt, könnte das schon ziemlich aussagekräftig sein und als Kaufberatung sinnvoll sein.

Mit Meinung hätte das also wenig bis gar nichts zu tun; es würde auf den daraus resultierenden Testdaten, die für die vorgegebenen Randbedingungen ermittelt wurden, basieren.

Eine wissenschaftliche Studie oder Publikation wird es nicht werden, aber ein Fingerzeig/Anhaltspunkt (genauso wie Ranglisten oder andere Testartikel hier auf CB, die vordergründig der Kaufberatung dienen) für Leute die vor genau so einer Entscheidung stehen und davon gibt es ja nicht wenige, wenn man sich hier die vielfachen Kommentare oder auch gelegentlichen Anfragen bzgl. Ratschlägen zum Hardwarekauf so durchliest.

Ich fände das schon sinnvoll, wenn es vom Umfang her auch sicherlich nicht ohne ist, aber dafür etwas bietet, was all die anderen Hardware-Zeitschriften/-Webseiten (noch) nicht bieten und nicht dem üblichen Schema entspricht.

Letzten Endes ist das aber Wolfgangs/CBs Entscheidung, ob man sich so etwas vorstellen kann bzw. in Betracht ziehen wollen würde ... interessant und informativ fände ich das allemal.
 
Zuletzt bearbeitet:
Nun, wenn CB imstande ist einen aussagekräftigen Test durchzuführen wäre ich auch daran interessiert.
 
... die kommt dann im Stromverbrauch gleich nach dem E-Herd und dem Wäschetrockner - nee so ein Teil brauche ich nicht.
Dazu ist der Strompreis bei uns einfach zu hoch, um solche Stromfresser zu betreiben.
Womöglich überrascht uns AMD noch und der Stromverbrauch liegt nicht im Bereich dieser Profi-karte.
Natürlich wäre man wieder Nvidia unterlegen, da dann auch die Leistung entsprechend niedriger wäre.
Egal, für mich kein Thema, da ich in die Zockerei nicht viel Geld stecke.
Ist die Neue sehr gut- fallen die Preise der Vorgänger-was dann wider für mich von Interesse wäre.
 
Es wurde schon gesagt und sollte mittlerweile jedem bekannt sein. TDP != Verbrauch.

Abgesehen davon verbraucht eine High-End-GPU von Nvidia auch sehr viel Strom. Ohne den genauen Verbrauch und die genaue Leistung zu kennen kann man sich über den Stromverbrauch also gar nicht erst beschweren.
 
Zurück
Oben