Notiz GeForce RTX 2070: Kleinste Turing-Grafikkarte erscheint am 17. Oktober

Fliz schrieb:
Vega ist bei mir keine Option. Selbst wenn man mit Undervolting noch 50-60 Watt sparen kann

Naja, Rechner idlen ja auch viel und da verbraucht Vega weniger als Turing. Ich denke gerade mit ein wenig Undervolting tun sich die Karten im Jahr nicht viel.
 
  • Gefällt mir
Reaktionen: Inxession
Finde ich geil, dass der kleinste Chip ab jetzt die größte Nummer hat. Damit optimiert NVidia den Verarschungsfaktor der 2xxx-Serie.
Von den Verfügbarkeiten, dem zweifelshaften Nutzen des Marketinginstruments Raytracing und vor allem den Preisen mal ganz abgesehen.

Puh, da hat man wirklich ein Scheißgefühl, selber eine Karte vom Leder-Fetischisten in der Kiste zu haben.
 
  • Gefällt mir
Reaktionen: DanHot
maxpayne80 schrieb:
Finde ich geil, dass der kleinste Chip ab jetzt die größte Nummer hat. Damit optimiert NVidia den Verarschungsfaktor der 2xxx-Serie.
Von den Verfügbarkeiten, dem zweifelshaften Nutzen des Marketinginstruments Raytracing und vor allem den Preisen mal ganz abgesehen.

Puh, da hat man wirklich ein Scheißgefühl, selber eine Karte vom Leder-Fetischisten in der Kiste zu haben.

seit wann ist das den neu??
ich glaube selbst als die chipsbezeichungen noch mit NVx anfingen, gab es einige generationen wo der größte chip eine kleine numerierung hatte (so um geforce 5xxx-7xxx zeit). seit den gtx 9xxx modellen, mit dem G92 chip im vollausbau, ist das fast durchgehend so dass die großen chips die kleinere nummer in deren bezeichnung tragen und spätestens fermi nutzt dann das heutige schemata durchgehend..
 
w0mbat schrieb:
Mit etwas Glück ist eine OC 2070 ca. auf dem Niveau der 1080 Ti.

MUHAHAHAH in welcher Dimension schierst du den bitte rum?
http://granitegrok.com/wp-content/uploads/MediaHandler.jpg
Ergänzung ()

borizb schrieb:
Warum zieht keiner die erweiterte Funktionalität mit in Betracht? Das ist keine simple GPU mehr,
das Ding hat dedizierte Hardware für Raytracing, Deep Learning uvm. Aber gut, ignorieren wir das.
Und wieder das Preisgeheule - natürlich haben die ersten 10.000 Posts zu diesem Thema nicht
ausgereicht. Und die paar Likes von den üblichen Verdächtigen nimmt man ja auch gerne mit.

Sagt der Typ, der 2x so viel Leistung durch genau dieses Update bekommen würde ausgehend
von seiner GTX980 4GB aus dem Jahr 2014. Das beweist nur deinen Geiz, nicht dein Know How.
Die 2070 ist der billigste RTX/DLSS fähige Chip, aber dich interessiert es nur, dass die Karte nicht
billiger ist als eine gleich schnelle von vor 1-2 Jahren die weniger kann und weniger effizient ist.

Also ich les mir eure Posts gerne durch und es ist auch ok, dass ihr ne andere Meinung habt,
aber es ist halt auch viel Quatsch dabei. Habt ihr ehrlich mit 400 - 500 - 800€ Preisstaffelung
und 100% mehr Performance + 50 RTX Launchtitel gerechnet? Ihr jammert auf hohem Niveau.
borizb 0 - Rest 2
 
Zuletzt bearbeitet:
Hallo zusammen,

@ dr. lele

dr. lele schrieb:
Naja, Rechner idlen ja auch viel und da verbraucht Vega weniger als Turing. Ich denke gerade mit ein wenig Undervolting tun sich die Karten im Jahr nicht viel.

Zum einen wollen die Leute ihre Grafikkarten in den Rechner stecken und Gamen, also Loslegen. Und nicht noch zig lange herum Versuchen, wobei du geflissentlich außer Acht läßt, daß Pascal auch erhebliches Undervolting-Potenzial hat, mußt nur hier im Forum im entsprechenden Thread nachschauen, teils sogar krasses UV-Potential. Zum anderen ist es einfach nicht gerade Optimal, wenn die Karte eines Mitbewerbers bei ähnlichem Performanceniveau über 100 Watt Strom mehr verbraucht.

Wir Reden da ja nicht nur von den höheren Stromkosten - wobei du 100 Watt mehr absolut spürst auf der Stromrechnung -. Das wird ja zumeist außer Acht gelassen. Von manchen absichtlich. Es gehen auch höhere Kosten durch die Abwärme mit einher. Es entstehen deutlich höhere Kosten für bessere Kühlkonstrukte um die Abwärme in erträglichen Grenzen zu halten und die Lautstärke ebensolch erträglich zu Halten.

Ebensolch kommt hinzu, daß je nach Gehäusebelüftung auch noch für manchen Neue Gehäuselüfter hinzu kommen. Also es summiert sich deutlich, im ungünstigsten Fall. Ach ja, nicht zu vergessen, für manchen bedeutet es auch die Neuanschaffung eines Neuen Netzteils. Da kann schon ganz schön was zusammen kommen zusätzlich.

Nicht nachzuvollziehen ist dein Performancevergleich von Vega Respektive Turing. Dein Rückschluß ist völlig falsch. Vega verbraucht immer noch deutlich mehr als Turing. Jedenfalls Vega 64. Und was die Effizienz angeht, liegt Vega dann nochmal zurück.

Dies was wirklich zu Kritisieren ist, ist der IDLE Verbrauch und ich denke auch kaum, daß der gefixt werden wird. Natürlich neben dem Fakt, daß Analogien von RT / DSS zu Phys-X mehr als vorhanden sind. Keiner weiß, wo der Weg hinführt. Deshalb rate ich Persönlich derzeit vom Kauf von RTX Modellen deutlich ab. Aber das ist etwas, was jeder für sich selbst beantworten muß.

Mein Persönliches Fazit zu den RTX Modellen habe ich mehrmals schon in den betreffenden Threads dargelegt. Für mich ist Nvidia RTX ein No Go. Doch wie gesagt, siehe Oben, mein letzter Absatz, letzter Satz.

So long....
 
Zuletzt bearbeitet:
@Luxmanl525

Man sollte nicht vergessen das Vega ein GPGPU ist, Pascal eine GPU. Nun ist Turing ebenfalls eine GPGPU und wenn die RT Einheiten und Tensor-Cores auch unter Volllast laufen, bin ich mal auf den Verbrauch gespannt. Da werden vermutlich einige sich ganz schön wundern.

Es wird ja hier auch so gemacht als wäre der Verbrauch auf einem anderen Planeten...die Vega64 liegt vom Verbrauch knapp über einer 1080 TI FE (die aber runterregelt). Eine Custom 1080 Ti mit OC verbraucht sogar noch mehr als Vega, dort werden aber selten Bedenken über den Verbrauch oder die Stärke des Netzteils geäußert.

Grundsätzlich sehe ich trotz allem die Vega64 + Games für ~400 € als ein sehr rundes Paket an. Und wer möchte betreibt UV+OC der Karte und kriegt mehr Leistung + 50-60 Watt weniger Stromverbrauch raus. (Womit sie dann fast schon auf 1080 Niveau landet, aber leistungstechnisch sogar davor ist)
 
  • Gefällt mir
Reaktionen: Inxession und Luxmanl525
Hallo zusammen,

@ Aldaric87

Aldaric87 schrieb:
Nun ist Turing ebenfalls eine GPGPU und wenn die RT Einheiten und Tensor-Cores auch unter Volllast laufen, bin ich mal auf den Verbrauch gespannt. Da werden vermutlich einige sich ganz schön wundern.

Du, ich bin da völlig deiner Meinung. Ich Glaube auch, daß es durchaus sein kann, daß die 300 Watt fallen könnten, wenn ich sehe, was da jetzt schon zu Buche steht. Und ja, dann gilt natürlich das allergleiche wie ich es für Vega dargelegt habe. Gar keine Frage. Bei den FE Modellen denke ich sogar, daß die dann nicht mehr so gut dastehen werden von der Kühlung her, wie es jetzt der Fall ist. Dann wird wohl die Stunde der Custom Lösungen erst richtig kommen, was momentan ja gar nicht getestet werden kann, weil RT ja nicht "Funktionsfähig" ist.

Aldaric87 schrieb:
Es wird ja hier auch so gemacht als wäre der Verbrauch auf einem anderen Planeten...die Vega64 liegt vom Verbrauch knapp über einer 1080 TI FE

Was mir oft auffällt, die Vega 64 wird gerne mit der 1080 Ti verglichen, was in meinen Augen daneben ist, dieselbe spielt in einer ganz anderen Liga und verbraucht gleichwohl trotzdem weniger. Die ist aber gar nicht der Gegner. Sondern die GTX 1080.

Aldaric87 schrieb:
Grundsätzlich sehe ich trotz allem die Vega64 + Games für ~400 € als ein sehr rundes Paket an.

Ich habe Vega 64 nicht ein einziges Mal als völligen Fail bezeichnet, wie andere. Das ist auch meine Meinung. Nur eben mit Nachteilen einher gehend, die nicht ohne sind, im Ungünstigsten Fall.

Aldaric87 schrieb:
Und wer möchte betreibt UV+OC der Karte und kriegt mehr Leistung + 50-60 Watt weniger Stromverbrauch raus. (Womit sie dann fast schon auf 1080 Niveau landet, aber leistungstechnisch sogar davor ist)

Das stimmt absolut. Aber auch hier wird vergessen, wie ich in meinem Vorpost schon anmerkte, Karten wie die GTX 1080 / 1080 Ti haben ebenfalls ein erhebliches Undervolting Potenzial. Mußt nur mal hier im entsprechenden Thread bzw. Threads nachschauen. Das gilt auch für die GTX 1070 / 1060 Modelle.

Für mich hat Nvidia mit Turing einen richtigen Bock geschossen. In meinen Augen ist es dies, was Vega im Großen und Ganzen für AMD ist. Das ist aber wie gesagt meine Persönliche Meinung.

So long....
 
Zuletzt bearbeitet:
snickii schrieb:
Ich werd wohl auf eine 1080Ti gehen, reicht mir für WQHD, die Karten müssen nur noch etwas günstiger werden.
Für 500€ schlag ich dann zu, immerhin ist die Karte schneller als die 2070 :)

Ich glaube das wird sich quasi erledigt haben... Alternate hat noch eine 1080ti auf Lager, dann war es das. MM und Saturn haben alles abgekippt, da hab ich meine auch her. Caseking hat noch ein paar letzte Überreste die sie auch locker so teuer lassen können und Mindfactory hat im Mindstar auch quasi schon alles abgekippt was weg musste. Somit liegen noch ein paar gute 1080ti bei den Händlern, aber wieso sollte sie die billiger machen?

Die 2080 kostet 849 Euro, da würde ich die guten 1080ti aber mal ganz flockig auf 749 Euro lassen... sparste 100 Euro, ist dann immer noch ein Argument oder du bleibst bei deiner Karte, ganz einfach. Ich sage wir werden keine billigen 1080ti mehr sehen in Deutschland, also gute Layouts schon mal gar nicht, jedenfalls keine Mengen die irgendwie relevant sein werden. Und solange die 2080 nicht auf 699 Euro ca. sinkt muss man die alten Karten nicht billiger machen.

Es war halt ein zocken und wer da zw 599-650 zugeschlagen hat, hat mal sicherlich aktuell so gar keinen Fehler begangen. Die anderen werden warten müssen, bis man merkt die 2080 geht nicht und die Preise werden gedrückt, aber da glaube ich das wird noch lange dauern.
 
  • Gefällt mir
Reaktionen: CBL
Als erstes:
Ich finde es super, dass neue Techniken vorangetrieben werden!
Ohne Enthusiasten, die vermeindliche überteuerte Karten kaufen wären wir immer noch bei 2D.
Meine ersten beiden 4MB(!) Voodoo 1 Karten waren auch nicht billig....



Aber - und dieses "aber" ist für mich(!) mittlerweile der springende Punkt - sobald man sich nicht mehr zu den Enthusiasten zählt sind die aufgerufenen Preise ein echter Knackpunkt.

Denn:
Die Zielgruppe gibt 639€ bis ~1300€ für eine RTX2070 FE bis 2080 ti Custom aus.
Diese Zielgruppe hat - und da lehne ich mich mal aus dem Fenster - zu über 95% Monitore ab WQHD.

Raytracing schön und gut, aber ich will meinen Monitor nativ betreiben - und nicht auf 1080p wechseln.


Meine persönliche Entscheidung war nach den Tests ganz einfach:
1080 ti für ~600€ kaufen und warten, bis Raytracing in mindestens WQHD problemlos (mit 60FPS+) für rund 600€ bis 700€ machbar ist. So lange muss die 1080 ti mit Heatkiller IV halt reichen.

....vielleicht ist bis dahin auch die Pannellotterie bei IPS Monitoren besser geworden und der Aufpreis für (G-)Syncmonitore erträglicher. Es ist nämlich auch da ernüchternd, was man teilweise für 650 bis 1300€ geliefert bekommt....


....mach ich nicht (mehr) mit!
 
maxpayne80 schrieb:
Finde ich geil, dass der kleinste Chip ab jetzt die größte Nummer hat. Damit optimiert NVidia den Verarschungsfaktor der 2xxx-Serie.
Der Hut ist so alt, dass er bald in nem Samstags-Artikel auf CB erscheint.
Es fing 2005 mit der 7xxx-Reihe an, wurde aber erst mit der 8xxx halbwegs übersichtlich.


gtx 8xxx.JPG
 
Zuletzt bearbeitet:
w0mbat schrieb:
Für mich genau das Gegenteil: die 2070 ist mit Abstand die interessanteste Turing Karte.

Schau dir mal den Bericht von CB über OC an, da bringt nur der Speicher wirklich was. Die 2070 hat ca. 27% weniger shader als die 2080, aber die gleichen 8GB GDDR6 mit 448GB/s Bandbreite. Dazu werden beide Karten wohl einen ähnliche OC Takt haben.

Mit etwas Glück ist eine OC 2070 keine 10% langsamer als eine Stock 2080, also ca. auf dem Niveau der 1080 Ti. Das für ca. 550€ bei non-FE Karten ist deutlich ansprechender als eine 2080.

RT wird sowieso nichts bringen, da macht es keinerlei Unterschied ob 2080 Ti, 2080 oder 2070.
Die 2080 ist nicht 10% schneller als die 1080 Ti, sondern ziemlich exakt gleich schnell. Seriöserweise müsste man 1080 Ti OC vs. 2080 FE machen, denn die 2080 FE ist ja OCed.
 
@Luxmanl525 Ich finde du übertreibst da ein wenig. Eine ordentliche custom Vega stellt mMn kaum größere Anforderungen an ein Gesamtsystem als eine custom 1070 oder 1080. Jedes gute 500W Netzteil stemmt das ohne Probleme und die meisten Leute die ein System passend zu einer 1080/Vega 64 haben, haben ein so großes Netzteil.

Ja die Hitze, die Hitze. Sicher macht die Vega mehr warme Luft aber so ein riesiges Problem habe ich damit nicht. der Umstieg von RX 480 auf eine Vega 64 hat meine CPU bei Spielelast auf sagenhafte 65°C gebracht. 1K mehr als vorher.

Mit dem Stromverbrauch sehe ich das auch immer skeptisch. Wenn man jetzt irgendwelche jahresrechnungen macht, trifft man damit nur einen kleinen Teil der Leute, nämlich den der so viel oder mehr spielt. Viele (wie ich) verbingen einen großen Teils ihrer Zeit am PC mit Arbeiten, Surfen, Videos schauen und da tun sich Nvidia und AMD kaum etwas.

Wenn man so anfängt kann man direkt auch wieder mit dem Freesyncmonitor anfangen, dem Anmelden für Treiber, der Gängelung im VIdeoencoding usw.
 
Ich würde auch sagen das man erst mal die Tests abwarten sollte was die RT Features angeht. Und wenn man etwas genauer hinsieht ist RTX nicht nur Raytracing... das ist eine völlig neue Architektur mit vielen neuen Features die durchaus auch abseits von RT durchaus relevant werden können. Mash shading, fp16 usw....

Und auch RT steht noch ganz am Anfang... ich sah letztens ein YouTube Video wo jemand die Star Wars RT Demo in UHD mit 24 Fps laufen ließ... nix mit RT geht nur in FHD
 
  • Gefällt mir
Reaktionen: CBL
Computx schrieb:
Mash shading, fp16 usw....

Ist ja jetzt nichts wirklich neues, kann Vega auch schon. Nennt sich dort nur Primitive Shader.
 
Ja das ist doch super !!!

Das bedeutet doch nur das die Wahrscheinlichkeit das es relevant wird exorbitant steigt !

Es geht nicht darum wer was eher hatte oder besser ist. Es geht mir um eine Weiterentwicklung
 
  • Gefällt mir
Reaktionen: Gortha
Die Frage wird eher sein, ob es in nVidia bezahlten Titeln dazu führt, dass Mesh Shading (bei RTX) angesprochen wird, aber Primitive Shader (bei AMD) mal wieder außen vor gelassen wird.

Nur wenn beides genutzt wird, führt es zu Fortschritt ! ;)
 
Hallo zusammen,

@ dr. lele

dr. lele schrieb:
Ich finde du übertreibst da ein wenig. Eine ordentliche custom Vega stellt mMn kaum größere Anforderungen an ein Gesamtsystem als eine custom 1070 oder 1080.

Ist das ein Witz, oder dein Ernst? Von welchen "Custom-Vega" Modellen redest du überhaupt? Es gibt Vega 56, Vega 64 als auch die Nano. Und zur Erinnerung, eine GTX 1070 zieht ca. 150 / 165 Watt. Eine GTX 1080 180 Watt, als Custom Modell ca. 200 - 210 Watt.

dr. lele schrieb:
Jedes gute 500W Netzteil stemmt das ohne Probleme

Richtig, jedes gute 500 Watt Netzteil stemmt eine Nvidia GTX 1070 / 1080, beides auch als Custom-Modell. Und dies ohne Probleme.

dr. lele schrieb:
und die meisten Leute die ein System passend zu einer 1080/Vega 64 haben, haben ein so großes Netzteil.

Ich staune wirklich immer mehr. Alleine hier im Forum könntest du nicht wenige Beiträge Eruieren, die eben kein entsprechendes Netzteil ihr Eigen nannten, um ihre frisch gekaufte Vega 64 zu Stemmen. Bei mehreren war ich mit entsprechenden Beiträgen zur Stelle und leistete Hilfe. Einer hatte sogar ein 650 Watt Netzteil! Ein anderer ein Sage und Schreibe 850 Watt NT! Das muß man sich mal Reinziehen.

Zur Erinnerung für dich extra noch einmal, Vega 64 zieht bei dem ein oder anderen Custom-Modell gerne mal 400 Watt. Ansonsten aber immer locker um die 300 - 330 Watt, je nach Modell. Ich frage mich wirklich, in welcher Welt du lebst.

dr. lele schrieb:
Mit dem Stromverbrauch sehe ich das auch immer skeptisch. Wenn man jetzt irgendwelche jahresrechnungen macht, trifft man damit nur einen kleinen Teil der Leute, nämlich den der so viel oder mehr spielt. Viele (wie ich) verbingen einen großen Teils ihrer Zeit am PC mit Arbeiten, Surfen, Videos schauen und da tun sich Nvidia und AMD kaum etwas.

Auch das ist falsch. Die Nvidia Pascal Modelle ziehen im IDLE auch deutlich weniger Strom. Mit dem Unterschied daß es sich eben nicht so auf der Stromrechnung bemerkbar macht. Da kann man schon Sagen, daß es sich kaum bis gar nicht bemerkbar macht. Keine Frage.

Und welche Zeit titulierst du denn damit, nicht viel zu Spielen? Bei mir z. b. ist es total unterschiedlich. Es kommt auf das Spiel an. Bei einem Spiel wie "Pillars of Eternity II" sitze ich schon gerne mal 5-6 Stunden vor der Mühle. Ich komme gar nicht davon weg, im besonderen weil ich zumeist nicht merke, wie die Zeit vergeht. Dasselbe bei Wasteland II, um nur mal 2 Beispiele zu Nennen, ich absolviere hauptsächlich Rollenspiele. Wiederum "Tower of Time" hat mich kaum mal mehr als 2 Stunden am Stück fesseln können.

Desweiteren habe ich meinen Verbrauch mittels FritzDECT 200 genau gemessen. Wenn ich 5-6 Stunden Game, dann sind das ca. 0,9 Kilowatt-Stunden. Dabei reden wir hier von einer 120 Watt GPU, wobei meine CPU auch nicht die Welt braucht. Mein gesamtes System, wie du es im Profil findest, zieht ohne Monitor im IDLE ca. 44 Watt. Das ist für ein Haswell-basiertes System im IDLE nicht gerade schlecht. Um genau zu sein, 43,6 Kilowatt Stunden im IDLE.

dr. lele schrieb:
Wenn man so anfängt kann man direkt auch wieder mit dem Freesyncmonitor anfangen, dem Anmelden für Treiber, der Gängelung im VIdeoencoding usw.

Was bitte soll das denn? Wie kommst du zu so einer Relation? Nochmalig für dich, wenn eine Karte bei ähnlicher Performance weit über 100 Watt - das ist ja noch Untertrieben - Mehrverbrauch zu Buche stehen hat, dann ist das auf der Stromrechnung zu Spüren. Und von der ganzen Abwärme will ich gar nicht erst Anfangen, als auch den damit einhergehenden Maßnahmen, um dieselbe aus dem Gehäuse zu befördern.

Das ist nun einmal Fakt. Ich kann es auch nicht Ändern, leider. Denn ich hätte seinerzeit auch lieber eine Vega gehabt, habe sogar extra wegen Vega bis zum Erscheinen solange gewartet, bis ich meine Sapphire Radeon 5850 Xxtreme aufs Altenteil schickte.

So long....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gortha
Lol, die Preise!

Ich hab immer noch ne 660ti.

Mal sehen ob irgendwann ein Spiel, meiner Wahl, rauskommt wo mein Setup mal unter 60fps fällt.

Langsam muss ich sagen ist der Lüfter immer öfter laut zu hören. Mal sehen vielleicht Kauf ich mir in 2 Jahren ne gebrauchte der aktuellen Generation.

Oder ich geh in Gamer Rente.
 
Luxmanl525 schrieb:
Ist das ein Witz, oder dein Ernst?

Mein voller Ernst.

Luxmanl525 schrieb:
Richtig, jedes gute 500 Watt Netzteil stemmt eine Nvidia GTX 1070 / 1080,

...und auch eine Vega. Vllt nicht im Uber-Boost Bios, aber mein altes e9 480 stemmt meine Vega 64 mit +10% PT auf balanced ganz hervorragend. Hier mal eine Vega 56, die jedes 500W Netzteil schafft: https://www.computerbase.de/2017-12...itro-plus-test/3/#abschnitt_leistungsaufnahme
Und hier eine Vega 64: https://www.tomshardware.com/reviews/asus-rx-vega64-strix-oc,5520-4.html

Ich glaube nur die Sapphire 64 Nitro+ knackt die 300W Marke auf Standardeinstellungen. Bin mir da aber nicht 100% sicher, überzeug mich gerne vom Gegenteil.

Luxmanl525 schrieb:
Das muß man sich mal Reinziehen

Ja, würde ich ganz gerne. Ich sprach ja auch explizit von guten Netzteilen. Wenn ich mit der Karte zocke habe ich in etwa einen Systemverbrauch von 390W (laut Brennenstuhl Messgerät). Klar ist das viel im Vergleich zu Nvidia, aber welches 500W Netzteil hat denn damit bitte Probleme?

Luxmanl525 schrieb:
Und welche Zeit titulierst du denn damit, nicht viel zu Spielen?

Zeit in der ich lese oder schreibe z.B. Oder Videos schaue/bearbeite. Oder programmiere. Oder Fotos sortiere. Oder Musik mache. Mein Zock/Nicht-Zock Verhältnis am Desktop ist bei etwa 1/5. Wahrscheinlich sogar noch kleiner. Das heißt für mich, das ich nur in 1/5 der Nutzungszeit bedeutend mehr verbrauche als mit einer Nvidia Karte.

Luxmanl525 schrieb:
Nochmalig für dich, wenn eine Karte bei ähnlicher Performance weit über 100 Watt - das ist ja noch Untertrieben - Mehrverbrauch zu Buche stehen hat, dann ist das auf der Stromrechnung zu Spüren

Und genau das möchte ich anzweifeln. Besonders bei Leuten wie mir, die ihren Computer für alles mögliche nutzen außer nur zum Zocken. Wenn man dann noch günstiger an eine Vega kommt, oder am Bildschirm durch AMD etwas sparen kann tut sich das mMn nicht so viel.

Und nochmal zur Kühlung: wo ist da das Problem? Ich hatte die Vega 64 eine Weile mit dem Referenzkühler drin und habe sie dann auf den Morpheus 2 umgebaut. D.h. ich habe sowohl den "Hitze-aus-dem-Case" als auch den "Hitze-überall-im-Case" Fall getestet.
Habe ein Fractal Define R4 mit zwei 140mm Lüftern vorne und einem 140mm Lüfter hinten. Alle laufen auf 5V. Und gab es irgendwelche Probleme? Nö. 4,5 Stunden Witcher 3 am Stück mit einem Durchschnittsverbrauch von 383W und alles blieb kühl und ohne Referenzkühler auch leise. Sicher wird mein Xeon jetzt 1 oder 2 Grad wärmer als mit meiner RX 480. Aber ob 64°C oder 65°C ist ja nun herzlich egal.

Und ich habe hier mal komplett zu deinen Gunsten Radeon Chill weggelassen. Damit ist das nochmal eine andere Geschichte.
 
Zurück
Oben