Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsRadeon RX Vega: Einordnung der Spekulationen zur Leistungsaufnahme
Klar, Fakt ist es nicht, hab zumindest ich aber auch nicht geschrieben denke ich. Wobei es schon an Sicherheit grenzt. Ich hät nie was gegen die Vega gehabt, war lange Zeit mein Plan die zu kaufen. Bei mir war die Wartezeit dann das KO Kriterium als die TI dann kam.
Die Vega FE verbraucht X Watt unter Last.
Die RX Vega verbraucht hoffentlich 30% mehr Strom und liefert 20% mehr Takt.
Mir doch Wurst, wenn die 100% ausgelastet mein Netzteil zum aktiven Lüften zwingt.
400W 15 Stunden lang kosten mich 1€ für Ökostrom..
Bei 150 Stunden Spielzeit im Jahr kommt mich das auf heftige 10€ zu stehen.
Gegenüber einer 1080Ti mit 300W zahle ich saftige 2,5€ mehr Stromrechnung..
Milchbuchrechnung, aber als Schweizer mit 100% CO2-neutralem Strom darf ich das.
AMD Radeon RX Vega: Gerüchteweise mit hervorragendem Preis-Leistungs-Verhältnis
..
In dieser Disziplin werde die neue Generation besser abschneiden als etwa eine Radeon RX 580 für 260 US-Dollar. Wäre die Leistung also doppelt so hoch, dürfte eine Radeon RX Vega nicht zwei Mal so viel kosten.
na das wär doch mal was , doppelte Leistung einer 580 zu sagen wir mal 400 Euro , würde der 1070 + 1080 ganz schön das Wasser abgraben , wobei es sich hier vermutlich um die Variante mit DDR5 Speicher statt HBM handeln dürfte
Was hier schon wegen Verbrauch gebasht wird. Die Karte ist noch nicht mal raus.
Dabei hat sogar die GTX 1080 FE spikes von über 300 Watt. Bei Metro z.B. bis 311 W. Und mit OC bis knapp 400 W. Von der GTX 1080 Ti ganz zu schweigen.
Solange die Leute glauben, der Verbrauch sei hoch, ist die Karte uninteressant für Miner. Das Horrorszenario ist doch, dass ein günstiger Verbrauch und hohe MH/s Leistung dafür sorgen, dass für Spieler wieder nichts übrig bleibt.
Ich hatte bisher immer den Eindruck, dass 8 GB VRAM völlig ausreichen, da die Rohleistung der GPU zu niedrig ist, sobald die Grafikeinstellungen so Hoch gestellt werden, dass man über 7GB füllt und dann auch noch gute FPS hat. Oder irre ich mich? Hisn weiß das bestimmt.
Was ich damit sagen will: Die 8 GB VRAM der Vega sind doch voll in Ordnung. Etwas später kommt sicher eine Nvidia-Ti Variante mit 16 GB.
Spikes sind ja auch recht egal, was zählt ist der Verbrauch über Zeit, egal welche GPU. Wenn du einen unendlich kleinen Zeitraum misst kannste auch beliebig hohe Spikes provozieren.
Für Miner dürfte die Karte denk ich weniger was werden. Wenn sie die Rohleistung auch in Gaming Performance umsetzt bin ich zufrieden, egal ob 150 oder 450W
Der tatsächliche Verbrauch in Watt ist bei AMD nie unter TDP (Wärme). Gibt AMD 300-375W TDP je nach Modell an, verbaucht die Hardware garantiert über 300W. PCGH, eure Übersetzung ist ja zum Lachen. Klingt wie FAKENEWS.
Bei Pascal lohnt such das übertakten auch nicht wirklich, schon gar nicht aus Sicht der Effizienz. Bei meiner laufen 1750mhz mit 0.8v, ok das ist etwas langsamer aber der Sprung von 0.9v und 1900 mhz auf 2050mhz mit Stock Vcore lohnt sich nicht wirklich, schon gar nicht wenn der Speicher nicht Oc freudig ist. Die Reserven bezüglich Oc die man bei Gk110 und zum Teil Maxwell vorfand sind lang vorüber und auch da waren nur die Referenzmodelle wirklich sparsam. Das Marketing von NVIDIA hat schon ganze Arbeit geleistet. Bei der Verbrauchsbetrachtung ziehen die Kunden Referenzmodelle heran, bei der Leistung wird auf Custom und Oc geschaut
Übermäßigen Stromverbrauch kommt für mich auch nicht in Frage. Das Teil muss in ein mATX Gehäuse weil ich keinen größeren Rechner mehr will. Da soll es keine 2,5-3 Slot Karte sein mit hoher Wärmeentwicklung und Lautstärke. Zumal viel Stromaufnahme bei gewissen Temparaturen sicherlich nicht die Langlebigkeit aller Komponenten fördert.
Da braucht mir Keiner einenVortrag halten dass High End Karten auch gern (übertrieben) 1000Watt verbrauchen dürfen weil sie im Moment vor jeder Wirtschaftskriese nur 2,50 Mark im Monat zahlen und der Hamster im Laufrad auch noch mit hilft.^^
Ist ja dann Jedem seine Entscheidung aber bei mir würde der Kauf wegfallen und die Konkurrenz weiter einen Kunden mehr haben.
Im Bezug auf Vega muss man natürlich abwarten. Solange nichts Handfestes da ist sollte man keine Panik schieben.
Trotzdem wäre es auch im Sinne des Konkurrenzkapfes wenn man in der Effizienz nicht aus dem Rahmen fällt. Einfach noch bisschen abwarten.
Naja wenn die AMD Karte für die gleiche Leistung wie NVidia zb 100 oder 200 Watt mehr Verbraucht, kann das, wenn die deutschen Strompreise berücksichtigt, schon was ausmachen.
Da kommt es halt drauf an wieviel man Spielt übers Jahr und wieviel billiger eine gleichschnelle Karte wär.
D708 schrieb:
OffTopic
Doch doch, der soll ans Netz(edit: nicht Iter sondern DEMO) Soll ja der erste Reaktor sein, der mehr Energie ins Netz speist als entnimmt.
Aber klar ist auch, dass ist immernoch ein Forschungsreaktor ist. Mit ihm möchte man "Langzeittest" durchführen.
wenn er so funktioniert, wie geplant, wird er die Blaupause für sämtliche andere Reaktoren.
Langzeit bedeutet in diesem Fall dass das Fusionfeuer möglichst einige Minuten in gang bleibt und nicht nur wenige Sekundenbruchteile wie bei den bisherigen kleineren Anlagen.
Man hofft damit das die Energiebilanz ins Positive rückt, und auf neue Erkenntnisse in der Plasmaforschung.
Für richtigen Dauerbetrieb, außerhalb von immer wieder für kurze Zeit einschalten ist der Tokamak im ITER nicht vorgesehen.
Und DEMO ist das Nachfolgeprojekt von ITER, da müssen erst mal ein paar Jahre ITER Forschungsdaten gesammelt werden bevor hier was passiert.
Schade, wenn schon im Vorfeld bekannt ist, dass es ein Stromschlucker ist.
Ich kaufe nur karten, die sich unkompliziert und vor allem möglichst leise kühlen lassen, vorzugsweise mit Luft, da kann die Leistung noch so hoch sein, es interessiert mich nicht. Wenn ich laute Hardware will hol ich mir ne Konsole...
Im Vergleich zur von Nvidia mit 180 Watt Verbrauch angegebenen GeForce GTX 1080 Founders Edition (Test) zeigen Partnerkarten der GeForce GTX 1080 im Test allerdings bis zu knapp 20 Prozent mehr Leistung, verbrauchen unter Last dann aber auch 130 Watt mehr.
Ich wäre dir sehr verbunden, wenn du mir mal eine GTX 1080 einer Partnerkarte aufzeigst, die unter Last mehr als 130 Watt Respektive der Founders Edition der GTX 1080 verbraucht. Würde mich nicht wundern, wenn das ein Schreibfehler ist. Meines Wissens gibt es keine Partnerkarte einer GTX 1080 die ca. 310 Watt unter Last verballert. Das wäre ja weit mehr als eine GTX 1080 Ti. Im Leben nicht!
Die Angaben in dem aufgezeigten Link können sich nur auf das Gesamtsystem beziehen. Nicht aber auf die GTX 1080 für sich gesehen. Also mir scheint das schon absichtlich falsch ausgelegt zu sein.
300+ Watt sind hart, ich hatte schon bei der RX 480 gezögert, weil sie mehr verbraucht, wie eine GTX 1060, aber ich wollte den RAM. Vega ist aber sowieso eine andere Zielgruppe. Für meine Zwecke reicht die RX 480 sicher noch 2 Jahre.
Jap, sind bei ~Leistungsgleichheit maximal 10W. Davon gehen schonmal ~4-5W allein für die zusätzlichen Speicherbausteine und memory controller drauf. gg