News Überblick: Gerüchte zur Radeon RX Vega drehen sich im Kreis

AMDs Karten haben im Gegensatz zu Nvidias brachiale Leistung, die kostet Strom.... Ne RX 480 ist beim Mining gleich auf mit ner 1070. Ich frage mich noch immer was dafür sorgt dass die Performance nicht auch in Spielen aufgebracht werden kann.
 
Taxxor schrieb:
Beide 1440p, beide 100Hz, einmal IPS und einmal VA Panel, so rein von den Daten sieht das für mich gleichwertig aus.

Rein Optisch ähneln sich die verwendeten Monitore ja nicht gerade, der eine ist ein Gaming-Monitor, der andere ein Design-Monitor.
1276261-n0.jpg1565011-n0.jpg
https://www.computerbase.de/preisvergleich/asus-rog-swift-pg348q-90lm02a0-b01370-a1276261.html
https://www.computerbase.de/preisvergleich/asus-designo-curve-mx34vq-90lm02m0-b01170-a1565011.html
Alleine schon dass sie unterschiedliche Panel-Technologien verwenden. Aber man hat sich wohl einfach den teuersten G-Sync Monitor ausgesucht den es von Asus gab, um 1100 €!
https://www.computerbase.de/preisvergleich/?cat=monlcd19wide&v=e&hloc=at&hloc=de&sort=-p&xf=11938_ASUS~11992_NVIDIA+G-Sync

Man hätte den Vergleich auch mit diesen beiden Monitoren machen können, exakt gleiches Panel.
1215454-n0.jpg1275089-n0.jpg
https://www.computerbase.de/preisvergleich/asus-mg279q-90lm0103-b01170-a1215454.html?hloc=at&hloc=de
https://www.computerbase.de/preisvergleich/asus-rog-swift-pg279q-90lm0230-b01370-a1275089.html?hloc=at&hloc=de
Ergänzung ()

Ap2000 schrieb:
Gut zu wissen.
Kann jemand die Stromanschlüsse ausmachen? Vielleicht auch von anderen Bildern.

Wie einer da kommentiert hat, sieht es nach 1x8 und 1x6 Pins aus. Die FE hat 2x 8 Pins.

Das witzige ist, derselbe der die Karte schon hat und auf Twitter gepostet hat, hat gestern in einem Livestream noch Gerüchte zum Vega-Design diskutiert und sich natürlich vollkommen überrascht gegeben, obwohl er die Karte da schon sicher selbst in Händen hatte. :D

Er sagt auch ganz zufällig, dass ihm das günstigere Referenzseign besser gefällt, weil gebürstetes Alu auch billig aussehen kann, wohl weil er die Karten schon selbst in Person gesehen hat.
https://youtu.be/m1-tHs1VamE?t=11m48s

Die Karte hat übrigens 2 x 8 Pin.
 
Zuletzt bearbeitet:
Darkseth88 schrieb:
Und an dem Punkt, wäre ich überrascht, wenn AMD was brauchbares abliefern kann... An wundertreiber mit +30%+ Leistung glaub ich eher weniger.
Glaube auch nicht, dass AMD plötzlich nen SO enormen sprung gemacht hat, was Leistung pro Watt angeht.
Beispiel:
GTX 1060 vs. RX 580. Etwa gleich schnell, aber Stromverbrauch 120w vs. 200w (bei den Customs). Das sind +66% mehr.

+66% von den 180w einer GTX 1080 wären: Ziemlich genau 299 Watt etwa.

Würde also ziemlich passen, wenn Vega nur GTX 1080 Leistung bei 300 Watt bietet. Von mir aus 5-10% mehr, weil andere Architektur als Polaris, und damit wieder etwas verbessert etc....

Ich sehe in keinster Weise dass Vega sich mit ner 1080 ti messen könnte. Und wenn, müsste sie 100€~ weniger kosten (weil sie dabei immernoch mehr strom verbraucht und 3gb weniger speicher hat, der zudem noch minimal Langsamer ist).

Mal ehrlich... Wäre schon ein ziemlicher Fail hoch 10, wenn man 14 Monate (!) geduldig auf Vega gewartet hat, und dann die karte bekommt, die mit 300 Watt das schafft, was ne 1080 vor 14 Monaten schon mit 180-200 Watt geschafft hat. Selbst wenn man nach 14 Monaten dann 300€ spart.

Meine Meinung: Wenn Vega mit 300w verbrauch / TDP daherkommt, und NICHT 1080 ti Leistung bringen kann (egal welcher Preis aufgerufen wird); halte ich das ding für nen Flip.. Außer sie kostet sogar weniger als ne 1080. Was mit HBM2 wohl nicht passieren wird :/

Und bei dem deutlichen Unterschied im Stromverbrauch, ist Freesync auch kein deut günstiger als das technisch bessere G-Sync... 3 Jahre zocken, und vom Stromverbrauch hat man da schon 100-150€~ gespart, indem man ne GTX 1080 mit 180w hat, statt ne Vega mit 300w.


Ich hoffe wirklich sehr, dass ich positiv überrascht werde... ^^

30% würde ich nicht als wunder treiber betrachten sondern schlicht als normale steigerung innerhalb einer generation
das hat bei nvidia fast schon allein TBR gebracht
bei 50% würde ich von einem wunder sprechen aber sicher nicht von 30% das wäre bestenfalls ziemlich gut

das problem bei 1060 und rx 580 ist aber dass die 1060 genau am sweetspot läuft
während schon die rx 480 knapp über dem sweetspot lief und der verbauch wie du sicher weist nicht linear ansteigt
mal abgesehen davon dass das größere speicherinterface und mehr ram auch mehr saft brauchen

was die 3gb mehr speicher der 1080ti angeht muss man erstmal schauen wie effektiv das neue speichermanagement funktioniert wenn es denn wirklich so sein sollte dass nur noch weniger als hälfte an speicher benötigt wird als bisher
wären 8gb hbm 16gb gddrx5 vorzuziehen aber wie gesagt erstmal abwarten

ihr überschätzt immer die hbm preise so viel wie hier alle glauben macht das nicht aus
amd könnte vega auch für 400€ verkaufen und würde noch ordentlich gewinn machen
zumindest was die herstellungskosten betrifft

sag mir bitte in welchen punkt freesync schlechter sein soll als gsync?
und bevor du mir jetzt einen artikel schickst schau bitte vorher aufs datum wann dieser erstellt wurde

was den stromverbauch angeht
wenn jemand jedentag 3 stunden zockt und das über ein jahr hinweg (und das muss man erstmal hinbekommen)
sind das im jahr kosten in höhe von 27€ bei 25cent die kwh
da brauch man schon vier jahre um 100€ wieder reinzubekommen (ich zahle sogar nur 17cent)

und nehmen wir mal an du hast recht und vega ist ca 10-15% schneller als eine 1080 bei 300 watt
dann ist das garnicht so schelcht
meine 1080 oc braucht auch etwa 250watt

@ Schrank
deine beiden monitore hätten aber nur ne auflösung von 2560x1440 gehabt
und du selbst fandest ja schon die 3440x1440 zu wenig für einen sinnvollen vergleich

zu diesem zeitpunkt hatte er noch keine vega^^
 
Zuletzt bearbeitet:
motul300 schrieb:
@ Schrank
deine beiden monitore hätten aber nur ne auflösung von 2560x1440 gehabt
und du selbst fandest ja schon die 3440x1440 zu wenig für einen sinnvollen vergleich

Stimmt, zumindest in Doom, wo man bei der getesteten Auflösung über 100 FPS hat, aber zum Beispiel Witcher 3 oder was aktuelleres in 1440p kann eine GTX 1080 schon in die Knie zwingen und hätte einen besseren Vergleich geboten.
 
müsste aber auch noch ein vulkan oder dx12 titel sein damit amd etwas besser dasteht
und die laufen ja eigentlich alle recht gut wenn ich mich recht entsinne
 
motul300 schrieb:
was den stromverbauch angeht
wenn jemand jedentag 3 stunden zockt und das über ein jahr hinweg (und das muss man erstmal hinbekommen)
sind das im jahr kosten in höhe von 27€ bei 25cent die kwh
da brauch man schon vier jahre um 100€ wieder reinzubekommen (ich zahle sogar nur 17cent)

Bei dem Verbrauch würden mich wohl weniger die Stromkosten stören, sondern mehr die Hitze und die mit der Kühlung verbundenen Lautstärke beziehungsweise die höheren Kosten des größeren Kühlers um dieselbe Lautstärke zu erreichen.

Auch mit meiner GTX 1080 hab ichs mir an manchen heißen Tagen 2 mal überlegt ob ich jetzt was Zocke, die zusätzliche Hitze ist schon spürbar.
Ergänzung ()

motul300 schrieb:
müsste aber auch noch ein vulkan oder dx12 titel sein damit amd etwas besser dasteht
und die laufen ja eigentlich alle recht gut wenn ich mich recht entsinne

Sowas wie das aktuelle Hitman währe optimal gewesen, ist schließlich ein AMD-Titel mit DX12 und läuft auf einer GTX 1080 in 1440p mit um die 70 FPS, also genau in der Freesync/G-Sync-Range.
https://youtu.be/uP4z-PWyIq4?t=1m39s
 
Zuletzt bearbeitet:
genauso ist es wieviel strom ich verbrauche ist mir ziemlich schnuppe
aber wenn wenn ich da an meine auf 1500mhz übertaktete 980ti zurück denke
war das echt kein vergnügen vor allem im sommer
 
also die limited edition hat defintiv ein 6-pin und ein 8-pin...

​mfg

p.s.
​limited edition von vega 56 ??
 
die.foenfrisur schrieb:
also die limited edition hat defintiv ein 6-pin und ein 8-pin...

​mfg

p.s.
​limited edition von vega 56 ??

Die Rx Vega 64 LE hat zumindest 2 x 8 Pins, die 2 Drähte ganz rechts sieht man nur ganz schleckt weil sie beide GND also schwarz sind, aber beide Strecker sind 8 Pins.
AMD-Radoen-RX-Vega-64-LE-2-1000x750.jpg

Wo gibt es denn eine ​Limited Edition von vega 56 zu sehen, ich dachte die kommt nur mit Custom-AIB-Kühler die die Fury (non X) damals, macht auch wenig sinn für einen beschnittenen Chip eine Limited Edition zu machen.
 
Zuletzt bearbeitet:
Die bilder bei linustech haben definitiv ein 6pin.
Eine nase für die klammer ist kleiner.

Mfg
 
Zuletzt bearbeitet:
die.foenfrisur schrieb:
Die bilder bei linustech haben definitiv ein 6pin.

Mfg

Du meinst wahrscheinlich das folgende.
AMD-Radeon-RX-Vega-64-Limited-Edition.jpg
Da täuscht wohl nur der Winkel, glaube nicht dass sie 2 Versionen der Limited Edition machen. :D
 
Schau mal die Beleuchtung auf den Nasen.
Eindeutig.

Mfg
 
die.foenfrisur schrieb:
... Bilder bei linustech haben definitiv ein 6pin.
Eine nase für die klammer ist kleiner.

Na, ich habe gerade das Bild herunter geladen und bin hineingezoomt, definitiv 2x8-Pin Stecker, nur sind bei beiden Steckern jeweils 2 (schwarze?) Kabel nicht/schwer auszumachen (beim linken Stecker oben rechte Mitte und oben rechts; beim rechten Stecker oben rechts und unten rechts).

Allerdings sieht es beim rechten Stecker so aus, als ob unten rechts doch ein gelbes Kabel hineinlaufen könnte.

DF7rpwwWAAApN47.jpg
 
Zuletzt bearbeitet:
die.foenfrisur schrieb:
Schau mal die Beleuchtung auf den Nasen.
Eindeutig.

Das mit der Reflexion auf den Nasen kommt wohl durch die komischen abgestuften Nasen der Buchsen.
AMD-Radeon-RX-Vega-64.jpg
Womöglich ist es bei der LE eine Buchse mit einer lange Nase und eine solche abgestufte, vielleicht ein Produktionsfehler, bei einer Limited Edition währe das vorstellbar.
Mysterium aufgeklärt! :D
 

Anhänge

  • AMD-Radeon-RX-Vega-64.jpg
    AMD-Radeon-RX-Vega-64.jpg
    15,4 KB · Aufrufe: 484
Zuletzt bearbeitet:
modena.ch schrieb:
@Cuxnase

Seit Maxwell bringt TBR bei NV 20-30% Leistung und viel Effizienz.
Bei AMD sollen die Verbesserungen mit TBR im einstelligen Prozentbereich liegen?.

Tiled Base Rendering gibt es seit den 90er Jahren und erstmal will ich einen Beleg dafür sehen, wieviel das bei Maxwell genau bringt.
Maxwell bietet gegenüber Kepler viele Neuerungen, da weiß niemand wieviel TBR alleine bringt.

motul300 schrieb:
30% würde ich nicht als wunder treiber betrachten sondern schlicht als normale steigerung innerhalb einer generationdas hat bei nvidia fast schon allein TBR gebracht

Kannst du das belegen, wieviel TBR explizit gebracht hat?
 
Zuletzt bearbeitet:
aaaah.

alles klar @schrank.
thx, das könnte es sein.

mfg
 
Zurück
Oben