News AMD Vega: Radeon Vega kommt Ende Juni, aber nicht für Spieler

Volkimann schrieb:
Passt doch, eine neue FX 5800 Ultra steht doch auch schon bei der Konkurrenz am Start... :rolleyes:

Made my day :cool_alt:
 
also ich sehe das entspannt. Angenommen es wird tatsächlich wegen der 2x8pin wie bei Fiji mit der Fury X. Dann werden es eben 275W TDP und Wasserkühlung. Ich warte dann auf den Nachfolger meiner Nano. Die wird dann auch wieder mit nur einem 8pin kommen und im Sweetspot laufen :)
 
PanzerHase schrieb:
Hoffen wir mal das 2x8PIN nicht für den tatsächlichen Stromverbrauch steht sondern man da lieber wirklich etwas Luft für mehr lässt.

wohl kaum ^^ das wären 150+150+75W also 375W TDP. Bei ner Dual GPU vielleicht aber kaum bei ner Single Vega. Man hat denke ich schlicht aus der RX480 gelernt und beansprucht den PCIe Slot weniger
 
Nur die PArtner TIs und das nur zum OC überhalb von 300Watt PT. Ne Standard FE auch mit OC kommt bestens mit 1x6 und 1x8 aus. Die 2x8 sind eher nice to have als technisch notwendig.
 
In den Leistungsregionen ist mit Effizienz ja ohnehin nicht mehr all zuviel los. Die von CB getestete custum 1080 ti gönnt sich für 10% Leistungs+ gegenüber der FE ja auch mal eben 30% mehr Saft und überholt damit sogar die Fury X.

Hieß es nicht irgendwann mal zu Vega "4x Power Efficiency"? Nehmen wir mal an sie haben etwas aufgerundet. Dann runden wir beim Leistungsgewinn auch etwas auf und nehmen 3x (FP16) für die Rechnung an. Fehlt also noch 1/4. Daher dürfte die Vega FE theoretisch nur eine ~205W TDP aufweisen. Ohne Slot wären also 6+8 Pin nötig. Bis 225 ist tatsächlich nicht mehr viel Luft weshalb 8+8 Pin durchaus Sinn ergeben könnten auch ohne das die Performance/Watt versagt.

Da AMD sicher nicht tiefgestapelt hat wird die Wahrheit wohl irgendwo in der Mitte liegen. Und in der Mitte liegt(beim realen Verbrauch) zufällig ziemlich genau (~5% Abweichung) die GTX 1080 TI FE.

:D
 
Zuletzt bearbeitet:
Caramelito schrieb:
Lächerlich.

Und wer das hier "verteidigt" ist einfach nur ein Fanboy, sonst nichts.

Geil, Verallgemeinerung.

Verteidigen oder nicht. Fakt scheint zu sein, das es bei der Produktion von HBM2 noch Probleme gibt. Fakt ist auch, das Leute die sich ein Wunschsystem zusammenstellen wollen, halt noch 2-3 Monate warten "müssen".

Manche sind halt nicht so system-/wechselgeil und haben Geduld. Am Ende kann man immernoch auf nVidia gehen, wenn dann wenigstens Vega für Bewegung bei den Preisen (ge-)sorgt (hat).

Verstehe nicht, wie man sich bei "Highendhardware" so kindisch aufregen kann ^^
 
Alles zu viel Spekulation über den Verbrauch. Die Anschlüsse sagen Garnichts aus. Wenn die Karte so gut wie nichts mehr über den PCIe zieht und der Headroom der Referenzkarte mit OC eingeplant ist, sieht es doch schon gar nicht mehr so schlecht aus. Immerhin neigen einige "High End Early Adopters" dazu Referenzkarten unter Wasser zu setzen (oder denen ist die Lautstärke egal) und zu übertakten, dann gibt es auch bereits einen besseren Grund, nicht noch auf die Customs zu warten.
Nicht genug Headroom heist ja auch nicht, dass die Karte mit 8+6 Pins bereits am Limit läuft, und schon gar nicht, dass die nicht @Stock ausreichen.
Bevor man also eine Welle über Verbrauch schiebt, einfach mal abwarten, was da kommt. Dauert ja nicht mehr sooo lange, bis sie erscheint.

Was hat die 1080Ti für ein TDP? 250W? Dann sind 275W für Vega nicht unrealistisch spekuliert.

Lustig, wenn die zwei Argumente pro Nvidia kommen: "Die Leistung bekommt man schon heute, warum also warten" und "Wenn Vega endlich da ist, passt Nvidia auch die Preise an"
Dann sollte man doch auf Vega warten, wenn man denn noch warten kann...
 
Zuletzt bearbeitet:
Hat denn schon jemand dran gedacht, dass mehr Luft und zweimal 8 Pin Stromanschluß auch bedeuten kann, dass sie damit den Usern mehr Luft/Spielraum für OC lassen wollen, was mit der 6+8 Kombi nicht möglich gewesen wäre?

Würde ich aufjedenfall für ziemlich plausibel halten :)

Ich bin aufjedenfall mal gespannt und um Herbst wird es dann ein neuer Rechner mit Vega+Ryzen. :)
 
CastorTransport schrieb:
Verstehe nicht, wie man sich bei "Highendhardware" so kindisch aufregen kann ^^

Zumal er eine 1080 im Rechner hat. Als ob ein Monat länger warten da irgendetwas ausmacht, falls er wirklich so dringend auf Vega wartet wie behauptet?
Naja er schreibt es ja selbst: "Lächerlich."
 
Krautmaster schrieb:
[...]Man hat denke ich schlicht aus der RX480 gelernt und beansprucht den PCIe Slot weniger
Das wäre doch wirklich zu begrüßen wenn ein Hersteller das tut :D

@Bärenmarke: Ich würde nicht von all zu viel OC Tauglichkeit ausgehen. Wenn man bedenkt wie das bisherige line up von AMD taktet sind 1600MHz als Ref. schon ordentlich. Allerdings kann es eig. nur besser werden. Meine 390 macht @stock Voltage (~1,25V mit Vdroop auf ~1.1-1.18V) schon bei 1060MHz dicht (1010MHz sind normal). Das man aber wie bei Nvidia so oft auf 2000MHz schießen kann bezweifel ich. Schließlich handelt es sich wie bei Ryzen um einen neue Architektur und nicht um einen Shrink ^^
 
Zuletzt bearbeitet von einem Moderator:
dass sie damit den Usern mehr Luft/Spielraum für OC lassen wollen, was mit der 6+8 Kombi nicht möglich gewesen wäre?
....wer die Entwicklung der letzten Jahre beobachtet hat kann beinahe ausschließen das es darum geht.
 
Ozmog schrieb:
Immerhin neigen einige "High End Early Adopters" dazu Referenzkarten unter Wasser zu setzen (oder denen ist die Lautstärke egal) und zu übertakten, dann gibt es auch bereits einen besseren Grund, nicht noch auf die Customs zu warten.

Das hat doch mit Early Adopter nichts zu tun, fast jeder der Wakü nutzt kauft sich die Referenzkarten, fast alle Hersteller produzieren ja auch nur dafür Blöcke. Dazu sind sie meist günstiger als die teilweise doch sehr überteuerten Customs (siehe ASUS).

Bärenmarke schrieb:
Hat denn schon jemand dran gedacht, dass mehr Luft und zweimal 8 Pin Stromanschluß auch bedeuten kann, dass sie damit den Usern mehr Luft/Spielraum für OC lassen wollen, was mit der 6+8 Kombi nicht möglich gewesen wäre?

Naja, wenn man sich die letzten Generationen von AMD ansieht ist es ja eher so dass die Karten ab Werk schon kurz vor der Kotzgrenze waren, ich bezweifle jetzt einfach mal dass man da noch viel rausbekommen wird wenn selbst die Profikarte schon bei 1600 MHz liegt.
Um gegen die 1080 Ti anzukommen wird da wohl auch jetzt wieder bis zum Äußersten getweakt, "Overclockers dream" würde ich auch jetzt wieder nicht erwarten ;)
 
Schade schade :-(
 
Krautmaster schrieb:
...das wären 150+150+75W also 375W TDP. Bei ner Dual GPU vielleicht aber kaum bei ner Single Vega. Man hat denke ich schlicht aus der RX480 gelernt und beansprucht den PCIe Slot weniger

Hmmm....zusammen mit Rajas Aussagen

The new geometry pipeline in Vega was designed for higher throughput per clock cycle, through a combination of better load balancing between the engines and new primitive shaders for faster culling. As a programmer you shouldn't need to do anything special to take advantage of these improvements, but you're most likely to see the effects when rendering geometrically complex scenes that can really push the capabilities of the hardware.
.....
Vega is both a new GPU architecture and also completely new SOC architecture. It's our first InfinityFabric GPU as well

AMD Verfolgt ja schon lange einen Multi-Core Approach - vielleicht auch im GPU-Segment.

Vielleicht ist Vega dann wirklich eine Multi-GPU, aber einer "neuen" Art nicht wie früher und damit "frei" von CF/SLI Problemen.
Ähnlich zum Ryzen design, Ein GPU Skalar aus untereinheiten aufgebaut die zusammen dann den großen GPU-Chip ergeben ? So dass es nicht die üblichen "Multi-GPU" Probleme gibt.

Das könnte in der Tat eine Revolution im GPU-Design sein so ein skalarverschalteter Multichip mit "shared RAM" quasi einer "infinity Fabric" wie bei Ryzen und könnte auch die 16GB VRAM (als 2x8 über IF verschaltet) erklären. Was sonst sollen Rajas Worte zur ersten GPU mit Infinity Fabric bedeuten.

Nehmen wir mal an die Architekturänderungen bringen so die üblichen 25% Boost (Tiled Rendering, Primitive Shaders, higher througput per cycle etc.)
Dazu die ~50% mehr Takt relativ zu Fiji.
Und wegen der 8+8 Pin ggf. 2 (oder mehr "Kerne" auf einer Karte ?) Dann sehe ich hier durchaus möglich eine Performance von ca 1080 TI +50% als nicht völlig abwegig.

Wenn AMD der Ansicht ist damit auch mit Volta konkurrieren zu können (Stichwort "Poor Volta") würde so ein Ansatz evtl sogar Sinn machen. Manche optimisten gehen ja davon aus das Volta ~50% auf die Pascal drauflegt. Wenn Vega also dagegen "stechen" können soll muss man fast schon auf solche Ideen wie oben kommen ?

Also ein Single Vega mit Sweet spot Clocks auf 1070 Niveau. Mit Hot Clocks auf 1080 Niveau und als "infinity Fabric" Design dann auf 1080 Ti +50% Niveau und damit durchaus auf augenhöhe sogar mit einem optimisch projektierten Volta.
 
Wenn die Leistung stimmt ist es mir latte ob sie 250, 300 oder 350 Watt verfeuert. In jedem Fall spare Energie verglichen zur 980ti :-D
 
Leute, bleibt doch mal ruhig. Er schrieb doch, daß er sich ne Karte aus dem Labor "schnappte". Das sind Entwicklerboards, die noch mehr als die Endhardware an Board haben. Das hat mit Luft nach oben fürs Endprodukt wenig zu tun. Zusätzlich soll RX Vega "optimierter" und leistungsstärker sein, als die Workstationkarten.

Lest euch doch noch mal das AMA durch, war wirklich interessant gestern.

https://www.reddit.com/r/Amd/comments/6bklro/we_are_radeon_technologies_group_at_amd_and_were/
Ergänzung ()

Witzig war, daß er auf "VEGA FE" und "poor VOLTA" gar nicht erst einging, dafür hat er sein T-Shirt verschenkt. :-D
 
yummycandy schrieb:
Leute, bleibt doch mal ruhig. Er schrieb doch, daß er sich ne Karte aus dem Labor "schnappte". Das sind Entwicklerboards, die noch mehr als die Endhardware an Board haben. Das hat mit Luft nach oben fürs Endprodukt wenig zu tun. Zusätzlich soll RX Vega "optimierter" und leistungsstärker sein, als die Workstationkarten.

Und weil es noch nicht die Endgültige Hardware war, gab es 6+8 Pin. Die endgültige wird 8+8 bekommen.

Aber ich hab ja weiter oben schon dargelegt weshalb ich mir deshalb keine Sorgen mache. Die Entscheidung für 8+8 Pin kann selbst dann noch Sinn ergeben wenn Vega 25% weniger Saft frisst als Fiji. Das glaube ich zwar nicht, zeigt aber dass es absolut keinen Grund gibt das schlimmste anzunehmen.
 
Iscaran schrieb:
Und wegen der 8+8 Pin ggf. 2 (oder mehr "Kerne" auf einer Karte ?) Dann sehe ich hier durchaus möglich eine Performance von ca 1080 TI +50% als nicht völlig abwegig.

Wenn AMD der Ansicht ist damit auch mit Volta konkurrieren zu können (Stichwort "Poor Volta") würde so ein Ansatz evtl sogar Sinn machen. Manche optimisten gehen ja davon aus das Volta ~50% auf die Pascal drauflegt.

Also 50% mehr als die 1080 Ti ist doch vollkommen utopisch, das glaubt doch wohl keiner. Ich denke AMD kann froh sein wenn sie auf das Niveau der 1080 Ti (Customs) kommen, mehr ist doch extrem unwahrscheinlich.
Dass Volta 50% auf Pascal drauflegt mag sein, aber wie wir bereits wissen wird das fast ausschließlich durch einen exorbitant großen Chip erzwungen der für grausam schlechte Yields sorgen wird. Also kann man davon ausgehen dass die dicken Volta Chips dem Profisegment vorbehalten sein werden da die Produktionskosten deutlich höher sind als die von Pascal. Damit dürften die Consumerkarten deutlich kleiner werden um für Nvidia noch rentabel zu sein, oder es gibt eine saftige Preiserhöhung. In beiden Fällen steht weder Pascal noch Vega schlecht gegenüber Volta da.
Ich vermute mal die ersten Volta Karten werden so ausfallen wie damals bei der 1080, teuer, kaum schneller als das Ti Modell des Vorjahrs, dennoch teurer, bessere Effizienz durch besseren Prozess.
Ob und wann dann wirklich deutlich schnellere Volta Karten kommen ist denke ich komplett von den Yields bei GV100 abhängig, wenn TSMC das halbwegs in den Griff bekommt gibt es vielleicht einen abgespeckten Chip als Ti Nachfolger, aber selbst dann wird es vermutlich deutlich teurer.
Naja wir werden sehen, von Volta denke ich aber ist die Geschwindigkeit von Vega derzeit eher nicht abhängig, man will nur die 1080 Ti kontern.
 
Zu Volta noch ne Frage. Wird es da nur eine Maske geben und damit teildeaktivierte Produkte? Oder wie lief das in der Vergangenheit bei nVidia, z.B. bei GP100 -> GP102/4?
 
Zurück
Oben