News AMD Vega: Radeon Vega kommt Ende Juni, aber nicht für Spieler

aivazi schrieb:
Uff jetzt geht wieder das Hirngespinst, herum dass eine High End Karte effizient sein muss.

Im Gegenzug schreiben sie, dass die Karte schnell sein muss teuer sein darf, aber nicht viel verbrauchen darf......

zumindest kommt diese Aussage von vielen Leuten die Nvidia im Highend besitzen, schon was von Tellerand gehört ??


Das die GTX 1080 TI soviel wie verbraucht wie Fermi damals und etwa soviel wie eine Fury X hat wohl kein Nvidianer gemerkt ????

Aber ja, AMD muss mal wieder auf den Stromverbrauch achten.


Effizienz ist in jedem Preis- und Leistungsbereich ein Vorteil. Und dass eine High-End-Geforce mit hohem Takt auch einiges an Strom schluckt, steht gar nicht zur Debatte, bedeutet umgekehrt allerdings dennoch nicht, dass sie nicht effizient wäre. Denn schlussendlich ist Effizienz eine relative Größe: Eine übertaktete GTX 1080 Ti mag im Verbrauch (der eine absolute Größe ist) zwar auf Fermi- oder auch Fury-Niveau liegen, gleichzeitig bietet eine GP102-Karte aber auch weit mehr Leistung. Unter dem Strich ist sie damit deutlich effizienter. Dementsprechend dürfte auch Vega gern mehr verbrauchen als ihre Geforce-Gegenspieler, sofern auch mehr Performance auf die Straße gebracht wird. 25% mehr Verbrauch bei 40% mehr Leistung? Herzlichen Glückwunsch, die Effizienzkrone gehört dir! Diese Zahlen habe ich jetzt übrigens aus der Luft gegriffen, sind nur ein Beispiel :)

Hätten die AMD-Karten der jüngeren Vergangenheit ihren höheren Verbrauch durchgehend in entsprechende Mehrleistung umgesetzt, hätte sich niemand beschweren können, wenigstens nicht nach rationalen Kriterien. Das war jedoch vielfach gerade nicht der Fall, was eben darin resultiert, dass man sich in dieser Hinsicht leider einen mäßigen Ruf "erarbeitet" hat.

Letztlich ist diese Diskussion aber natürlich noch recht sinnlos, soweit es Vega betrifft. Von der Anzahl der Stromanschlüsse lässt sich am Ende nicht auf allzu viel schließen.
 
Zuletzt bearbeitet:
DocWindows schrieb:
NVlink entwickelt sich aber sicherlich auch weiter. Die Frage ist auch: knapp wofür?

Mit Sicherheit!

Die Tesla P100 hat ne Speicherbandbreite von 717 GB/s und kann dank unified memory bis zu 512 TB (genau wie der HBCC bei Vega) adressieren. Die 4er oder 8er GPU Cluster werden aber durch NVlink auf 160 GB/s limitiert. Da ist also noch ordentlich Luft nach oben.

Und der Gedankengang von dem von dir zitierten User bezog sich ja wenn ich es richtig verstanden habe auf die theoretische Möglichkeit multi-gpu Karten ohne die üblichen Limitierungen bauen zu können. Keine Ahnung ob das mit der HBCC/Infinity Fabric Kombo möglich ist, mit Unified Memory/NVlink jedenfalls nicht.
Ergänzung ()

DeathShark schrieb:
Letztlich ist diese Diskussion aber natürlich noch recht sinnlos, soweit es Vega betrifft. Von der Anzahl der Stromanschlüsse lässt sich am Ende nicht auf allzu viel schließen.

Stimmt, mit den verfügbaren Information lässt sich auf so einiges Spekulieren. RX Vega könnte mehr schlucken als ne Fury X oder weniger als die 1080 TI.

Ich knabbere immer noch an der "4x Efficiency" Angabe. Das wären im Fall der Vega FE unter 200W, scheint mir nicht realistisch...

edit: Eine (theoretische) Möglichkeit wäre das bei 1600 MHz tatsächlich noch ordentlich Luft (also 10-15%) nach oben ist. Also quasi der von Raja erwähnte "Headroom". Dann könnten 8+8 Pin für OC bzw. RX Vega bitter nötig sein. Siehe Nano -> Fury X.

Bei dem gezeigten 4K Material könnte die FE ja theoretisch auch höher getaktet gewesen sein um eine mit der TI vergleichbare Framerate zu erreichen. Dann könnte die Angabe mit der 4x verbesserten Effizienz stimmen, die FE wäre effizienter, aber auch langsamer als die GTX TI und erst RX Vega mit entsprechenden Taktraten wäre gleich schnell oder schneller, dafür ginge aber die Effizienz flöten.

edit2: Je länger ich darüber nachdenke desto schlüssiger wird das für mich.

Wenn ich keinen Denkfehler mache lässt sich damit alles vereinbaren. Die versprochene Effizienz UND die im Vergleich mit Titan Xp bzw. 1080 TI "nett aussehende" Leistung. Für mich sah das immer alles zu gut aus um wahr zu sein. Bisher wollte ich mich überraschen lassen, jetzt werden meine Vorstellungen ziemlich konkret.

Wenn die auf der Computex gezeigte RX Vega mit 1866 MHz taktet und damit (knapp) eine 1080 TI schlägt kann ich mir dann auf die Schulter klopfen. ;)
 
Zuletzt bearbeitet:
DeathShark schrieb:
Hätten die AMD-Karten der jüngeren Vergangenheit ihren höheren Verbrauch durchgehend in entsprechende Mehrleistung umgesetzt, hätte sich niemand beschweren können, wenigstens nicht nach rationalen Kriterien. Das war jedoch vielfach gerade nicht der Fall, was eben darin resultiert, dass man sich in dieser Hinsicht leider einen mäßigen Ruf "erarbeitet" hat.

Eben!
Wenn ein hoher Verbrauch auch hohe Leistung mitbringt ist das zu einem gewissen Teil zu entschuldigen, nach dem Motto "Viel hilft viel".
Irgendwann ist natürlich auch da ein Punkt erreicht wo zu Recht Kritik laut wird, beispielsweis bei der "Thermi".
Aber viel schlechter ist es, wenn man einen höheren Verbrauch als der Konkurrent hat und dabei auch noch weniger Leistung bietet. Das kann man nämlich nicht mehr entschuldigen.
 
Sinnlose Leistungsaufnahme-Diskussionen..
Ist das nur für´s Gebashe pro oder contra eines GPU-Herstellers, oder ist dieser aufgezwungene Energiewende-Wahnwitz tatsächlich in euch drin?
Ich lasse meinen 50" TV laufen, mach den Ton aus und dreh der Kiste anschließend den Rücken zu. Kopfhörer auf, Crossfire-System an und zocken.
Also entweder bin ich ein schlechter Mensch oder ein Großteil der Forenuser hier sind einfach riesengroße Heuchler..

4 x 1GB HBM1 Stacks einer Fury ziehen max 17,5W, falls es wen interessiert.
Wo liegen 8GB GDDR5X, jemand nen Plan?
 
@Edelhamster
Wir zahlen unseren Strom selbst und die beispielsweise 100 Watt Mehrverbrauch bei vergleichbarer Leistung (Ursprünglicher Computerbase-Test der GTX 970/980) gegenüber der Radeon R9 290X bzw. bei SLI/Crossfire gar 200 Watt Mehrverbrauch kosten zum einen Geld und heizen zum anderen den Raum auf, was gerade im Sommer nicht angenehm ist.
 
edit: Über Hawaii Verhältnisse müssen wir uns keine Gedanken machen. Denkt an den Vorgänger, von 150W zu 250W waren es bloß 150 MHz Takt. Im Sweetspot war Fiji effizienter als die GTX 970!

Wenn ich mit meinen Vermutungen richtig liege, kann man sich die Effizienz seiner RX Vega genau wie bei den Fiji quasi selber aussuchen und zwischen <200W und >300W wäre alles drin.
 
Zuletzt bearbeitet:
Edelhamster schrieb:
Sinnlose Leistungsaufnahme-Diskussionen..
Ist das nur für´s Gebashe pro oder contra eines GPU-Herstellers, oder ist dieser aufgezwungene Energiewende-Wahnwitz tatsächlich in euch drin?
Da denkst du aber nicht weit genug...
Ich stimme dir zu, dass der Mehrverbrauch den Leuten vermutlich nicht so wichtig ist, die eh 600-800€ für Grafikkarten ausgeben, denn da kommts scheinbar nicht auf jeden Cent an.
Aber die Leistungsaufnahme spielt doch bei ganz vielen anderen Dingen eine Rolle:
- OC-Potenzial (wenn das Ding schon bis ans Limit (siehe RX480) gebracht wird, ist oft kaum OC-Potenzial vorhanden!)
- Kühlung (nicht jeder bastelt sich gerne eine Wasserkühlung an die Grafikkarte, erst Recht nicht, wenn man gerade 600-800€ dafür ausgegeben hat und dadurch die Garantie flöten geht -> und im Sommer ist das schon ein großes Thema bei den Temperaturen
- Kühlung 2 -> es gibt ja auch Leute, die keine 60-70L Tower besitzen und eine schnelle, potente Karte auch gerne in kleine Gehäuse setzen möchten, die nur 25-35L Volumen haben ... da lässt sich so eine Heizung schon deutlich schwerer im Zaum halten
- Kühlung 3 -> halbwegs kompakte Karten sind auch schwer zu bewerkstelligen, somit würde vermutlich auch wieder mal der gesamte Mini-ITX Sektor wegfallen... während es leise und übertaktete GTX1070er gibt unter 400€, die deutlich unter 20cm Länge haben!

@Mracpad
frei aussuchen wahrscheinlich nicht, aber es wird vermutlich schon größere Unterschiede geben zwischen den Modellen... nur 2x8Pin heißt schon mal, dass es nun auch kein "Energiespar-Wunder" wird und man muss ja nur an Polaris zurückdenken mit den "150W TDP"... also mal schauen, ob sie das bei Vega besser hinbekommen
 
Zuletzt bearbeitet:
Edelhamster schrieb:
Also entweder bin ich ein schlechter Mensch oder ein Großteil der Forenuser hier sind einfach riesengroße Heuchler..

Was hat das mit Heuchlerei zu tun? Nicht jeder verprasst Strom ohne darauf zu achten. Klar läuft die GPU meist im Idle und damit ist es beinahe egal was man im Rechner stecken hat, aber wenn man die Auswahl zwischen zwei gleich schnellen, gleich teuren Karten hat dann fällt der Blick eben z.B auf sowas.
 
edit:

forumuser05 schrieb:
@Mracpad
frei aussuchen wahrscheinlich nicht, aber es wird vermutlich schon größere Unterschiede geben zwischen den Modellen... nur 2x8Pin heißt schon mal, dass es nun auch kein "Energiespar-Wunder" wird und man muss ja nur an Polaris zurückdenken mit den "150W TDP"... also mal schauen, ob sie das bei Vega besser hinbekommen

Nicht nur zwischen den Modellen, auch bei einer einzelnen gekauften Karte. Deshalb sag ich ja "frei aussuchen". 8+8 Pin und Energiesparwunder müssen sich nicht widersprechen. Es bedeutet nur das du die Wahl hast, denk an die Fury X. Die kannst du mit 150W betreiben wenn du möchtest. Oder sogar mit 300W, wenn du übertaktest.



Wenn es im Sommer zu warm wird, betreibe ich meine Fury einfach mit weniger Takt, zusätzlich zu dem grundsätzlichen UV. Das bringts enorm! Vega wird imho genau wie Fiji ein Multitalent.

Stromfresser oder Effizienzwunder, der Nutzer entscheidet selbst.

Find ich großartig!
 
Zuletzt bearbeitet:
Tz, als ob... Immer wieder dieser Verbrauchswitz.

Als nvidia noch den höheren Verbrauch hatte war das keine Silbe wert. Jetzt sind sind sie effizienter, ist es das i Tüpfelchen Argument... Um im nächsten Moment damit zu argumentieren wie geil OC bei nvidia Karten klappt :freak:

Dann noch das Argument "im Sommer aber..." Wen es draußen schönstes Wetter ist hockt ihr also in der Bude und zockt also. Klar.
Und ob ein Raum mit 400W Abwärme aufgeheizt wird oder mit 440W.... :lol:
Ach nein, die supereffiziente OC nvidia Karte ballert ja dann auch mehr raus.

Dann noch 150€ in eine sagenumwobene ultramegapowerhyper Mechatastatur investieren, aber dann wegen 15€ im Jahr mehr an Stromkosten jammern.
 
@Mracpad
Naja, aber das denkst du jetzt so, meinst du denn wirklich, dass AMD sowas implementieren wird? Dafür gibt es doch bisher keine wirklichen Anzeichen.
Ich selbst machs bei meiner MSI RX480 auch so, dass sie dauerhaft untervolted und leicht overclocked läuft und gleichzeitig noch den Framelimiter auf 60fps rein, da mein Monitor eh nicht mehr hergibt ^^ aber ob man nun ohne mühsames hin und herfriemeln da zwischen verschiedenen Leistungs/Verbrauchsstufen hin und her wechseln kann, bezweifle ich ein bisschen.

Eher wird es wie bei vielen bisherigen Karten (sowohl bei nVidia, als auch bei AMD) vermutlich wieder Quiet und OC Modi von den Partnern geben und damit einher geht ja auch oft ein deutlicher Verbrauchsunterschied.

@Volkimann
Sicher war auch der zu hohe Verbrauch der nVidia-Karten damals nicht in Ordnung, die mussten genauso ans Limit gehen, um mitzuhalten ... aber das macht es ja jetzt nicht besser für AMD oder? Denn nVidia hat ja nunmal wirklich enorm den Verbrauch gesenkt, eine RX480 verbraucht mehr als eine GTX1070 und das ist dann schon etwas... wie gesagt, nur weil einem selbst das nichts ausmacht, heißt das ja nicht, dass es total egal ist, denn ITX-Versionen, leise Karten und OC und Co sind nunmal für sehr viele interessant und wenn der Verbrauch enorm hoch ist und die Karten schon so ans Limit gebracht werden (wie bei der RX480, die RX470 war deutlich runder!), dann ist das kein komplett zu vernachlässigendes Thema.
Aber Kommentare wie "sagenumwobene ultramegapowerhyper Mechatastatur" lassen ja erahnen, dass du das nicht rational, sondern emotional beurteilst. Das ist ja auch dein gutes Recht, aber sicher gibt es sehr viele, denen aus den verschiedensten schon erwähnten Gründen der Verbraucht auch nicht unwichtig ist :)
und zum Thema "im Sommer hockt ihr also in der Bude"... es soll ja tatsächlich Schüler und Studenten geben, die im Sommer 1,5-2 Monate frei haben und da nicht die ganze Zeit mit dem Fußball durch den Garten flitzen wollen ;)

@edit:
Dass AMD-Karten auch klein und leise sein können, zeigt übrigens der gerade erschienene Test hier bei CB:
https://www.computerbase.de/2017-05...-rx-570-test/#abschnitt_benchmarks_in_full_hd
Die Pulse ITX Version der RX570 ist kompakt mit 17cm Länge, recht leise und dank endlich mal nicht zu viel Spannung von Haus aus auch schon stromsparender... vermutlich hätte so die ideale RX470 damals schon vor einem Jahr sein sollen, wenn man die Taktraten damals so gelesen hat. Sie ist etwas schneller als eine GTX970, hat dabei aber einen deutlich niedriegeren Verbrauch.
Aber die Realität bei AMD-Karten sieht zurzeit leider so aus, wie die anderen Modelle abschneiden in dem Test. Die werden bis ans Limit gebracht und verbrauchen dann sogar mehr, als eine GTX1080 :rolleyes: (die mal eben 70-90% schneller ist)
 
Zuletzt bearbeitet:
Nein, das macht es nicht besser.
Aber die Argumentation ist doch bezeichnend bei vielen.

Plötzlich ist der Maximalverbrauch/Abwärme das Killerargument gegen AMD ... Bei nvidia aber hat es nicht gestört oder stört nicht, weil munter übertaktet wird.

EDIT: Ich bin nicht emotional, sondern verwende Übertreibung als Stilmittel.
Genauso wie übertrieben wird das die 40W mehr das Zimmer unendlich!!!!1111 aufheizen.

Und Schüler und Studenten mit solchen Systemen... Aber dann über die Stromrechnung jammern?
 
Zuletzt bearbeitet:
@ iSight2TheBlind: Ich zahle meinen Strom auch lange selbst, aber 10-20€ mehr oder weniger im Monat, das sind 1-2 Packungen Kippen.. Wenn ich darauf achten müsste hätte ich in meinem Leben gefühlt etwas falsch gemacht..
Aber jut, man soll ja nicht immer von sich selbst auf andere schließen, hat manch einer halt einen anderen Standpunkt, nicht falsch verstehen. Grundsätzlich halt nur, wenn ich mir GPU´s im oberen 3 bis 4 stelligen Bereich für mein Hobby kaufe, sollten die paar Euronen für Strom den Braten auch nicht mehr Fett machen.

Forumuser05´s Argumente leuchten mir da eher ein, mit den AiO Lösungen der Furys bin ich Temp und Lautstärke mäßig aber eben auch verwöhnt. Die erwärmte Abluft stört mich wenig.. hat mich bei 4890, 7870XT oder 290X aber auch nicht gestört..
Eine HighEnd-Karte würde ich letztendlich auch nie in ein Mini-ITX Gehäuse reinsetzen..

Bringt somit alles nix, verschiedene Standpunkte, verschiedene Prioritäten, soll jeder machen wie er will.
Große GPU´s werden noch eine lange Zeit zwischen 150-300 Watt rangieren.
Gute UV Fähigkeiten, wie von MracPad erwähnt, kann ich den Fiji´s ebenfalls bescheinigen. Die Existenz der Nano beweist es ja auch schon lange.
 
forumuser05 schrieb:
@Mracpad
Naja, aber das denkst du jetzt so, meinst du denn wirklich, dass AMD sowas implementieren wird? Dafür gibt es doch bisher keine wirklichen Anzeichen.
Ich selbst machs bei meiner MSI RX480 auch so, dass sie dauerhaft untervolted und leicht overclocked läuft und gleichzeitig noch den Framelimiter auf 60fps rein, da mein Monitor eh nicht mehr hergibt ^^ aber ob man nun ohne mühsames hin und herfriemeln da zwischen verschiedenen Leistungs/Verbrauchsstufen hin und her wechseln kann, bezweifle ich ein bisschen.

Dafür muss überhaupt nichts implementiert werden. Und das Anzeichen dafür das Vega genau wie Fiji dazu in der Lage ist stellt für mich die "4x Efficiency" Ankündigung da. Ich kann mir nicht vorstellen wie dies anders möglich sein sollte.

Und friemeln muss man da nicht. Man kann wenn man möchte, um die Kombi mit UV zu optimieren. Grundsätzlich reichen 1-2 Regler; Maximaler Takt und/oder Powerlimit.
Ergänzung ()

Edelhamster schrieb:
Gute UV Fähigkeiten, wie von MracPad erwähnt, kann ich den Fiji´s ebenfalls bescheinigen. Die Existenz der Nano beweist es ja auch schon lange.

Ich meine garnicht unbedingt die UV Kapazitäten, selbst ohne UV kann man einer Fury X das sparen beibringen. Wieviel UV zusätzlich möglich ist kommt ja auf das jeweilige Exemplar an. Das ist aber optional.

edit: Nur mal zum Verständnis; Diese Möglichkeit ist kein tolles Feature der AMD Architekturen sondern entsteht einfach weil die GPU serienmäßig teilweise sehr deutlich über den "sweetspot" getaktet werden. das lässt sich auf Kosten der Leistung ganz simpel korrigieren. Natürlich möchte man möglichst hohe Leistung für sein Geld aber gerade bei den letzten paar % geht die Effizienz ganz flott in den Keller.

Bei Fiji versursachen die letzten 15% Leistungssteigerung einen Verbrauchsanstieg von 67%! :D
 
Zuletzt bearbeitet:
@Volkimann
"Killerargument" würde ich es nicht nennen, ich selbst habe lange zwischen GTX1060 und RX480 überlegt und um ehrlich zu sein, war mir die GTX1060 aus mehreren Gründen sympathischer... günstiger (zum Release Customs vs. Customs!), etwas schneller, in ITX-Versionen erhältlich und als Bonus obendrauf eben auch noch niedrigerer Stromverbrauch (sogar deutlich) und damit leichter leise zu kühlen!
Letztendlich ist es alleine wegen Freesync doch die RX480 von MSI geworden, nebenbei eine wenigen wirklich sehr leisen RX480er Karten (bei der RX580 hat MSI das laut Test scheinbar wieder verbockt?!).

Deswegen denke ich, dass es vielen so wie mir geht, dass Verbrauch sicher nicht DAS Killerargument ist, aber eben in Summe auch eine nicht unwichtige Rolle spielt... denn es geht eben nicht nur um die Stromrechnung (die auch einen Unterschied ausmacht), sondern auch um die Größe, Kühlbarkeit und das OC-Potenzial der Karte und da sind nunmal die, die ans Limit gebracht werden in allen Belangen auch hinterher ... zusätzlich zum Stromverbrauch (und das ist eigentlich markenunabhängig, nur hat zurzeit eben AMD den "schwarzen Peter" der schlechteren Effizienz).
Wie gesagt, bei Schülern und Studenten geht es auch nicht nur um den Stromverbrauch, siehe Text ;) außerdem gibt es auch viele andere, die im Sommer Urlaub haben und einfach abends mal bisschen zocken wollen oder sich einen Urlaub eben nicht leisten können oder sich anstatt Urlaub lieber eine tolle Grafikkarte gönnen ... das sollte ja jedem selbst überlassen sein, aus welchen Gründen er den Computer auch im Sommer zum Gaming nutzt ^^

@Mracpad
Aber ehrlich gesagt würde ich solchen Slogans wie "4x Efficiency" nicht wirklich glauben, das gilt für beide, sowohl bei AMD, als auch bei nVidia. Denn natürlich müssen die bei solchen Präsentationen immer besonders "catchy" rüberkommen... egal ob nun die y-Achse der Diagramme total schräg gewählt wird um den Balken 3x so lang aussehen zu lassen oder "2x 150W TDP für ab 200$ schlägt eine GTX1080" ... wie es dann am Ende war, weißt du ja auch, weder 150W wurden eingehalten, 200$ dank der schlechten Verfügbarkeit auch nicht und eine GTX1080 wurde wenn überhaupt in einem Spiel auf Augenhöhe begegnet, ansonsten lagen die RX480CF-Systeme sogar im Schnitt vieler Spieler unter einer GTX1070!
Ich hoffe auch, dass AMD bei den Vega-Karten seine Hausaufgaben gemacht hat und die Effizienz deutlich gesteigert hat, aber 4x ist schon eine Hausnummer... oft zeigen ja die ersten "richtigen" Tests dann überraschendes.

Mit friemeln meinte ich auch eher, dass es eher etwas für "Geeks" ist ^^ der "normale" Käufer von Grafikkarten bastelt nicht so sehr an Lüfterkurven und Spannungen herum ... meiner Meinung nach sollte sogar gerade sowas von den Boardpartnern schon erledigt werden, denn wofür bekommen die denn ihr Geld? Dafür dass sie ihren eigenen Kühler auf die Grafikkarte pappen? Dann doch schon auch, dass sie die Karten "optimieren", deswegen wundert es mich, dass sämtliche RX480-Karten mit viel zu viel Spannung ausgeliefert wurden, unabhängig vom Boardpartner :rolleyes: (und das ohne wirkliches OC-Potenzial, was ja ein Grund dafür sein könnte)
 
Zuletzt bearbeitet:
Je nachdem um wieviel später die Vega RX kommen soll, hab ich zur Frontier Edition nur 2 Fragen. Kann ich sie in normalen Retailshops kaufen, und wird sie mit dem Crimson ReLive Treiber laufen. Da beides bei einer Radeon Pro Duo der Fall ist, wäre ich vorerst optimistisch.

Klar sieht man sich die Sache mit Vega RX und 16GB Vram an, aber solang die Ausbeute nicht signifikant besser wird, stehen die Chancen schlecht.
 
Edelhamster schrieb:
Sinnlose Leistungsaufnahme-Diskussionen..
Ist das nur für´s Gebashe pro oder contra eines GPU-Herstellers, oder ist dieser aufgezwungene Energiewende-Wahnwitz tatsächlich in euch drin?
Ich lasse meinen 50" TV laufen, mach den Ton aus und dreh der Kiste anschließend den Rücken zu. Kopfhörer auf, Crossfire-System an und zocken.
Also entweder bin ich ein schlechter Mensch oder ein Großteil der Forenuser hier sind einfach riesengroße Heuchler..

4 x 1GB HBM1 Stacks einer Fury ziehen max 17,5W, falls es wen interessiert.
Wo liegen 8GB GDDR5X, jemand nen Plan?

Leistung pro Watt ist eine Möglichkeit, die "Wertigkeit" einer Architektur zu messen im Vergleich zur Konkurrenz, insbesondere dan, wenn Mitbewerber einen verbrauchsintensiveren Speichertypus verwendet.

Wir werden sehen, ob die 2x8 Pin nett gemeint sind oder von AMD bereits bei der FE ausgereizt werden, um ein spezifisches Leistungsniveau zu erreichen. Dann wissen wir, ob die Aussage tatsächlich pro OC war oder reines Kaschieren
 
Wie gut das mich der Verbrauch nicht so sehr interessiert. Solange man sich in einer gewissen Toleranz befindet ist das nur jammern auf hohem niveau. Wenn die leute beim Stromvebraucht auf ihre TV´s oder Monitore schauen würden - welche einen nahezu konstanten stromverbrauch haben - könnten diese mit einem Effizienten Monitor mehr sparen als mit einer Grafikkarte welche eher im worst case szenario mehr verbrauchen. Im Durchschnitt geben sich diese nicht viel.

Da ich im Sommer kaum Zocke stört mich die abwärme nicht so sehr, sollte dennoch nicht übertrieben sein.
Da ich nicht übertakte, kann ich undervolten - wenn nötig.
Im Winter spare ich mir Heizkosten :).
Da ich einen Freesync Monitor habe kann ich mit Nvidia leider nichts anfangen. Und nein - Ich zahle kein 200 für Gsync drauf. Für das Geld kann ne AMD 10 Jahre lang mehr verbrauchen - bis dahin bin ich schon zu alt um zu zocken - das bin ich ja jetzt schon fast, aber Männer sind Kinder ;).
 
forumuser05 schrieb:
@Mracpad
Aber ehrlich gesagt würde ich solchen Slogans wie "4x Efficiency" nicht wirklich glauben, das gilt für beide, sowohl bei AMD, als auch bei nVidia. Denn natürlich müssen die bei solchen Präsentationen immer besonders "catchy" rüberkommen...
Ich hoffe auch, dass AMD bei den Vega-Karten seine Hausaufgaben gemacht hat und die Effizienz deutlich gesteigert hat, aber 4x ist schon eine Hausnummer... oft zeigen ja die ersten "richtigen" Tests dann überraschendes.

Mit friemeln meinte ich auch eher, dass es eher etwas für "Geeks" ist ^^ der "normale" Käufer von Grafikkarten bastelt nicht so sehr an Lüfterkurven und Spannungen herum ... meiner Meinung nach sollte sogar gerade sowas von den Boardpartnern schon erledigt werden, denn wofür bekommen die denn ihr Geld? Dafür dass sie ihren eigenen Kühler auf die Grafikkarte pappen? Dann doch schon auch, dass sie die Karten "optimieren", deswegen wundert es mich, dass sämtliche RX480-Karten mit viel zu viel Spannung ausgeliefert wurden, unabhängig vom Boardpartner :rolleyes: (und das ohne wirkliches OC-Potenzial, was ja ein Grund dafür sein könnte)

Na klar muss man solche Sachen immer ins Verhältnis setzen, bzw. aus dem Marketing-Sprech heraus übersetzen. Im Fall von Vega gegenüber Fiji würde ein ca. 25% geringerer Stromverbrauch bereits reichen um das Versprechen der 4fachen Effizienz zu halten. Und wenn sie davon nur die Hälfte schaffen, sprich ~12,5% wär das immer noch in Ordnung *solange die Leistung stimmt*. Aber selbst wenn diese 25% garnicht da sind, sondern sich nur aus der Diskrepanz zwischen Fiji am Limit und einer konservativ getakteten Vega ergeben würde wäre alles in Butter (*sdLs*). Wie man es dreht und wendet, am Ende wird es auf das gleiche hinaus laufen.

Und der nicht "Geek" kann ja einfach die RX Vega Nano kaufen. ;)
Ergänzung ()

Palmdale schrieb:
Wir werden sehen, ob die 2x8 Pin nett gemeint sind oder von AMD bereits bei der FE ausgereizt werden, um ein spezifisches Leistungsniveau zu erreichen.

Mit ziemlicher(!) Sicherheit weder noch.
 
Zuletzt bearbeitet: (Ergänzung)
-Helmo- schrieb:
Schade AMD!
Ich bin seit Monaten ohne Grafikkarte!
Letzten Monat ne MSI RX480 bestellt nach dem Release der 580,die nie ankam!
Ok,wart mal noch bis Vega.......
Nun noch länger warten? Nee lasst mal!
Wird dann jetzt ne KFA2 1070
Und das als AMD-sympathiesant


Also jetzt mal ehrlich, dieses "Ich habe keine Zeit mehr"- Argmunet ist doch einfach bei den Haaren herbeigezogen. Wird dann immer so getan als könnte man AMD die Pistole auf die Brust setzen und zum Release zwingen, weil man persönlich als einzelner Mensch gerade JETZT eine Wunsch-Karte braucht. "Ja wenn ihr jetzt nix raus bringt gehen WIR ALLE zur Konkurrenz, ätschi bätsch"

Bei Grafikkarten Releases von mehr als einer neuen Graka pro Jahr, wer da noch irgendwie Zeitprobleme hat, der ist einfach nur ungeduldig und schlecht erzogen.
 
Zurück
Oben