News Ada, Hopper und Blackwell: Neue Details zu Nvidias Next-Gen-Architekturen

Thanok schrieb:
Angeblich bekommt man nicht genug Chips hin, die die benötigten Taktraten zuverlässig schaffen ohne direkt zu verglühen. Außerdem ist wohl die Stromversorgung bei "günstigen" Modellen ein großes Problem. Falls eine 3090Ti auf den Markt kommt, dann eher Modelle wie die Kingpin, die auch 800W Verbrauch durch die SpaWas decken könnte.
Hier steht was anderes: https://www.pcgameshardware.de/Gefo...a-hat-ganz-offiziell-nichts-zu-sagen-1389242/
Stand jetzt glaubt man, dass es nicht einmal Produktionsprobleme mit dem Grafik-Chip sind, die Nvidia Kopfzerbrechen bereiten, sondern diese mit dem Wechsel des Speichers zu tun haben.
 
owned139 schrieb:
Und hier wird (unter Berufung auf mehrere Quellen die "bisher nie daneben gelegen haben" wieder was anderes:

Die einzige Lösung wären entweder geringere Taktraten, oder aber eine noch höhere TDP, was beides nicht ideal ist. Nicht, dass ich den Speicher da komplett ausschließen würde, aber im Zweifel würde NV doch eher wieder 24 Chips verbauen. Die Karte wird eh über 3000$ Kosten, da kann man sich auch ein paar $ mehr in der Produktion leisten.
 
Dr. MaRV schrieb:
Meine Meinung? Die Technologie wie man sie bisher kannte ist in diesem Bereich an der Grenze des machbaren angekommen. Mehr geht nur mit noch mehr (Energie). Die Effizienz ist sicher noch immer besser als bei den Produkten von vor 10 oder 20 Jahren, nur geht das eben mit einem Energieeinsatz einher, der für so manchen nicht mehr akzeptabel ist, die Gründe seien hier egal.

Eigentlich sieht man ganz gut, dass wir nicht beim technisch machbaren angekommen sind, sondern jede Generation große Sprünge machen. Durch die kleinere Fertigung kannst du in einen Chip so viele Transistoren und Recheneinheiten packen, wie es vor kurzem nur in 2-3 Chips ging.

Die höhere Leistungsaufnahme geht ja mit einer noch viel höheren Leistung einer. ~70% mehr Recheneinheiten plus mehr Takt plus ein paar IPC Verbesserungen werden schnell zu 80-100% Mehrleistung.

Das das für manche zu Viel Energie ist, ist verständlich. Dann hat man aber in aller regel auch kein Bedarf für die hohe Leistung und kann ja einige Klassen darunter kaufen.

Dr. MaRV schrieb:
Um das zu bewältigen, muss man eben diese Menge an Energie einsetzen, um das geforderte Leistungsziel zu erreichen.

So sieht es aus. Wobei hier die Effizienz das Stichwort ist. Wenn ich mit einem 500 Watt chip zwei alte 350 watt Chips ersetzen kann, ist das durchaus ein beachtenswerter Fortschritt. gerade bei Computingaufgaben macht sich das sehr bemerkbar. Einen Chip künstlich zu beschneiden, nur damit er sozialverträgliche 250 Watt Verbraucht macht wenig Sinn, wenn ich stattdessen mit hohem Ressourceneinsatz deutlich mehr Karten für das gleiche Ergebnis bauen und einsetzen muss.

Thanok schrieb:
Irgendwie ergeben die Gerüchte so für mich keinen Sinn. Von Samsungs 8nm auf TSMC 5nm ist der Sprung sehr groß, das sind eigentlich 2 komplette Nodes. Dazu kommt, dass TSMC Chip sich tendenziell besser takten lassen, ohne die Brechstange rauszuholen. Dass es keine 3090Ti gibt, hat ja seine Gründe.

Nun soll der TSMC Chip trotzdem 450W und mehr verbrauchen?


450 Watt sind schon realistisch. ~70% Mehr Recheneinheiten. Der Takt soll deutlich angehoben werden. Dazu sind es eher 1,5 Nodes. 450 Watt Dauerlastverbrauch sind da schon sehr realistisch, je nach Takt evtl. auch 500. Man wäre aber auch bei einer Leistung die grob zwei 3090 entspricht. Am Ende wird wie immer viel vom Takt abhängen. Mit etwas weniger Takt wird ja auch Ampere plötzlich recht effizient.
 
  • Gefällt mir
Reaktionen: Cohen, ThirdLife, Vitec und 2 andere
Shoryuken94 schrieb:
450 Watt sind schon realistisch. ~70% Mehr Recheneinheiten. Der Takt soll deutlich angehoben werden.
70% mehr Recheneinheiten sind nicht ohne, aber die Packdichte bei TSMCs 5nm Prozess liegt bei mehr als dem dreifachen von Samsungs 8nm Prozess, was schon einmal eine grobe Marschrichtung vorgibt. Basierend auf der Transistordichte hätte der Lovelace keine 400mm² als Big Chip, was bei mir zugegeben Fragezeichen aufwirft.
Den Takt wird NV sicherlich anheben, ich weiß jetzt nicht wie gut 5nm takten, aber tendenziell taktet TSMC besser als Samsung und die 6nm von TSMC sind nochmal ein Stück besser. Selbst wenn der Takt nicht besser skaliert als mit 6nm, dürften 10% mehr Takt kein Problem darstellen.

Wie gesagt, in meinem Kopf widersprechen sich die Gerüchte irgendwie, weil die Kombination einfach nicht so funktioniert, wie es die Gerüchte sagen. Ich gehe schwer davon aus, dass Nvidia im Zweifel mit der Brechtstange die Leistungskrone behaupten wird, und 450W schwirren ja nicht ohne Grund durch die Gegend. Wenn AMD nun einmal mit RDNA 3 die Performance nochmal verdoppeln möchte, und NV eigentlich nur 80% anpeilt, dann muss man den Rest über den Takt holen, und da wird es irgendwann unschön werden.
Ich bin mal gespannt wie sich das Ganze aufklärt, bis dahin werden die Fragezeichen über meinem Kopf wohl bleiben müssen.
 
Thanok schrieb:
70% mehr Recheneinheiten sind nicht ohne, aber die Packdichte bei TSMCs 5nm Prozess liegt bei mehr als dem dreifachen von Samsungs 8nm Prozess, was schon einmal eine grobe Marschrichtung vorgibt. Basierend auf der Transistordichte hätte der Lovelace keine 400mm² als Big Chip, was bei mir zugegeben Fragezeichen aufwirft.

Bei den großen HP Chips wird die maximale Packdichte aber auch nicht voll ausgenutzt. Zum einen skalieren nicht alle Chipteile 1 zu 1 damit, zum anderen wird die Leistungsdichte ansonsten zu hoch und man bekommt Probleme bei der Taktfreudigkeit.

Die Dreifache Packdichte bedeutet auch keine dreifache Effizienz. Sieht man selbst immer ganz gut bei TSMCs leistungsangaben, wo man sich eher im unteren bis Mittleren zweistelligen Prozentbereich bewegt. Bei der Größe würde ich wieder von etwa 600-650 mm² ausgehen. Wir wissen aber nicht, was sich ggf. noch architektonisch ändert und die Fläche beeinflusst.

Beim Takt wird man schauen müssen, was die Chips können und wo ein gutes Verhältnis zwischen Takt und Spannung liegt. Grundsätzlich soll die nächste Generation ja stark auf Ampere aufbauen. Mal sehen, ob man wieder dicht an das Taktlimit geht. Wahrscheinlich ist es aber.
 
Wie beschleunigen wir die Fortbewegung in Zeiten der Pferdekutsche? Indem wir noch größere, noch hungrigere Pferde züchten!

So ähnlich mutet es an was da gerade passiert - Materialschlacht statt effizienzgetriebene Entwicklung und das zu Preisen aus der Hölle. Da braucht es den passenden Technologie-Sprung, wie damals,von der Pferdekutsche zum Auto.

Mal in die Zukunft gedacht: Würde ein Quantencomputer bei Raytracing nicht exorbitante Vorteile bei der Päparallelen Berechnung haben im Verhältnis zu aktuellen GPU? Dann könnten wenige Quanten-Rechner via Cloud Streaming ganz neue Möglichkeiten bieten, jenseits vom klassischen Rendering
 
  • Gefällt mir
Reaktionen: Colindo
owned139 schrieb:
CP 2077, Dying Light und God of War sind auch sehr gut, aber wenn man nur mit Scheuklappen durch die Gegend läuft...
Hauptsache Mal andere persönlich angreifen 😤

CP2077 ist noch zu teuer und zu Bug verseucht.
Die anderen beiden Games interessieren mich nicht, da nicht mein Genre 😉
 
polyphase schrieb:
CP2077 ist noch zu teuer und zu Bug verseucht.
Es kostet 15€ und wenn das für dich zu viel ist, dann sind nicht die fehlenden Spiele das Problem, sondern dein Geldbeutel. Du wärst sicher eh nicht bereit 1000€+ für ne Grafikkarte auszugeben, unabhängig von der Spieleauswahl.
 
  • Gefällt mir
Reaktionen: ThirdLife
15€? OK, dann lag ich beim Preis falsch.

Ne der Geldbeutel ist nicht das Problem, nur 1000€ für eine Grafikkarte auszugeben, ist mir zu viel. Bis max. 500€ waren für mich ok, wobei ich nie mehr wie 300€ aufgegeben habe für eine Grafikkarte, da bin ich einfach zu geizig 😁
 
Shoryuken94 schrieb:
Beim Takt wird man schauen müssen, was die Chips können und wo ein gutes Verhältnis zwischen Takt und Spannung liegt. Grundsätzlich soll die nächste Generation ja stark auf Ampere aufbauen. Mal sehen, ob man wieder dicht an das Taktlimit geht. Wahrscheinlich ist es aber.

Da die Konkurrenz mittlerweile in immer mehr Bereichen auf Augenhöhe oder auch mal darüber kommt, wird Nvidia sicherlich wie bereits bei Ampere, zusehen seine Chips möglichst auszureizen.

Wobei ich mittlerweile sagen muss, dass in Sachen UV und OC sich Ampere ziemlich ähnlich zu Turing und Pascal verhält. Zwischen Sinnvollem Undervolting und maximaler Leistung, liegen wie gehabt 10-15%. Der Chip ist also eigentlich gar nicht viel mehr auf Kante genäht, wie die Generationen zuvor. Man merkt die Differenz in der Stromaufnahme nur mehr, weil der Grundverbrauch und der maximal Verbrauch auf einem höherem (Grund)Level sind.
 
owned139 schrieb:
Hab 20€ bezahlt und für den Preis kann man sich das geben. Aber wenn ich es auf meiner 1080 spiele und mir vergleichsweise Gameplay von besseren Karten im Internet anschaue, dann entsteht bei mir kein "muss ich haben" Effekt. Ja, hier spiegelt es schöner, dort ist das Licht interessanter und die FPS sind höher, aber das erzeugt für mich keine bessere Atmosphäre. Dem Spiel fehlt es an Feinschliff, die Stadt, die Innenräume, die NPCs, etc. das wirkt nicht wie aus einem Guss sondern teilweise zusammengeschustert. Hier supertolle Details und dort wie in 10 Minuten zusammen gefrickelt.

Mir geht es ähnlich wie @polyphase . Ich würde/werde im Zweifelsfall sogar 1000€ für eine Grafikkarte ausgeben, aber nur für Spiele, die wirklich die nächste Evolutionsstufe darstellen und natürlich nur für Spiele aus meinen präferierten Genres.

Dying Light 2 habe ich mir in den Videos mal angesehen. Das sieht schon sehr schick aus, aber denn springen mir immer wieder Spielelemente und Objekte ins Gesicht, die sich auf dem Niveau von Fallout 4 bewegen.

Ich befürchte, dass die Entwicklung von Spielen, die diese Grafikleistungen wirklich sinnvoll und gleichmäßig nutzen kann, immer aufwendiger wird, so dass nur noch Spieleschmieden wie Rockstar wirklich damit umgehen können. Auf RDR 3 und GTA 6 müssen wir aber wohl noch einige Jahre warten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: polyphase
Ich hab mir inzwischen ein zweites Hobby zugelegt, solang es mit dem Thema Gaming so bergab geht.

3D Druck, macht auch Spaß und ich habe was von der genutzten Zeit 😎
 
  • Gefällt mir
Reaktionen: Shoryuken94
Martinipi schrieb:
"Ich habe nicht gesagt das ich dafür bin, aber ich bin dafür!"
zwischen etwas verbieten wollen und darüber nachdenken wie man etwas besser machen kann liegen welten; aber man kann ja kindisch alles falsch verstehen, wenn man es will. :rolleyes:
 
GERmaximus schrieb:
Da die Konkurrenz mittlerweile in immer mehr Bereichen auf Augenhöhe oder auch mal darüber kommt, wird Nvidia sicherlich wie bereits bei Ampere, zusehen seine Chips möglichst auszureizen.

Davon gehe ich auch Fest aus. Das wurde immer wieder von beiden Herstellern so gemacht, um den Anschluss zu wahren. Ist immer eine Frage der Produktpolitik. Beide sind immer daran interessiert, möglichst dicht an die Konkurrenz ranzukommen und möglichst viele Chips zu verkaufen.

GERmaximus schrieb:
Wobei ich mittlerweile sagen muss, dass in Sachen UV und OC sich Ampere ziemlich ähnlich zu Turing und Pascal verhält. Zwischen Sinnvollem Undervolting und maximaler Leistung, liegen wie gehabt 10-15%. Der Chip ist also eigentlich gar nicht viel mehr auf Kante genäht, wie die Generationen zuvor. Man merkt die Differenz in der Stromaufnahme nur mehr, weil der Grundverbrauch und der maximal Verbrauch auf einem höherem (Grund)Level sind.

Ja das stimmt. War schon bei Kepler so, dass die Chips das saufen anfangen, wenn man über einen bestimmten Punkt hinweggeht. Im Grunde sind die Chips heute ab Werk übertaktet und deutlich näher am Möglichen. Früher hat man übertaktet, wenn man mehr Leistung möchte, heute undervoltet man, wenn man sparen möchte.

Hätte sich die Leistung von RDNA2 nicht abgezeichnet, wäre die 3080 auch eher eine 250-270 Watt Karte und die 3090 wohl eine 300 Watt Karte geworden.

Nvidia weiß wohl ganz gut bescheid, was bei AMD zu erwarten ist und AMD auch was bei Nvidia so Sache ist. Entsprechend konfiguriert man die Chips, um seine leistungsziele zu erreichen, ohne zu sehr Strom zu verballern. Wenn man aber nur durch hohen Energieeinsatz gewinnen bzw. mithalten kann, gehen beide den Weg. Am Ende ist der Benchmarkbalken die wichtigste Kenngröße für den Verkaufserfolg.

Finde ich auch okay wenn ich ehrlich bin. ich kann als Kunde ja ohne Probleme die Leistung soweit zurückdrehen, wie es mir gefällt.
 
  • Gefällt mir
Reaktionen: Colindo, GERmaximus und ThirdLife
xexex schrieb:
Wie haben schon längst die physikalischen Grenzen dessen überschritten, was eine solche Entwicklung möglich machen würde und letzten Endes definiert sich unsere Gesellschaft nur durch endlosen Wachstum.
und dann ist die lösung das einfach als gegeben hinzunehmen? wo ist dann die grenze erreicht? wenn die grakas 1kw ziehen? wenn man die steckdose ausgereizt hat?

die gesellschaft ist sicherlich nicht als solche schuld, dass es viele gibt, denen leistungsaufnahmen "egal" sind und lediglich die maximale performance zählt.
da kann man durchaus was tun, auch medial muss man nicht jede entwicklung kritiklos gutheißen.
ich finde da ist ein großer unterschied ob man sich bewusst macht dass technologie immer besser und effizieter werden sollte oder ob einen "nebeneffekte" wie stromverbrauch als folge der entwicklung egal sind oder quasi als unveränderliche tatsache hingestellt werden.

wenn wir inzwischen nicht gelernt haben dass man der wirtschaft/industrie manchmal regulierende leitplanken vorgeben muss, dann hat man einige zig jahre wirtschaftsgeschichte verpasst, denn nicht alles was technisch machbar ist, ist gesellschaftlich auch hinnehmbar oder gar akzeptabel.
in zeiten in denen wir merken dass energie nicht quasi-umsonst oder im überfluss vorhanden ist, wirkt es tatsächlich etwas aus der zeit gefallen (wie es bereits einige angemerkt haben) wenn das was wir hier alle als hobby mögen, sich in die gänzlich falsche richtung entwickelt..
 
cypeak schrieb:
und dann ist die lösung das einfach als gegeben hinzunehmen?
Nö! Einfach mit dem Geldbeutel entscheiden. Die meist verkauften Grafikkarten sind die 60er und 50er Reihen und keine 80er oder 90er. Ich beschwere mich auch nicht, dass SUVs oder Sportwagen mit 500PS+ gebaut werden, ich würde mir so ein Teil schlichtweg nicht kaufen.

Der Bedarf ist da und es gibt genug zahlungswillige Käufer, also wieso sollte man künstlich die Entwicklung beschränken? "Moralisch" muss das jeder mit sich selbst ausmachen, wir leben aber nun mal in einer wachstumsorientierten Wirtschaftsordnung. Würden jetzt alle plötzlich sagen, "Das reicht mir so und ich brauch nichts mehr schnelleres/grösseres/stärkeres", würde das gesamte Wirtschaftssystem zusammenbrechen.
 
  • Gefällt mir
Reaktionen: Cohen, cypeak, Tiimati und 2 andere
8nm vs 7nm sind gar nicht so weit auseinander was dichte angeht
Das kann man sehr gut an nvidia ga100 vs ga102 sehen
826mm² bei 12gpc 128sm aktiv
628mm² 8gpc 82sm aktiv
Daraus ergibt sich etwa 13% Differenz
Da nvidia an physik gebunden ist und das maxed an Einsparung bei tsmc 45% beträgt 5nm vs 7nm bei etwa 30% weniger saft oder 15% mehr takt.
Muss die Fläche größer werden was den Takt je mm² auch 1% mehr Takt bringt
Sprich aus 144sm wird 454mm² ohne Änderung an der tbp und gleichen Takt was so etwa 1,6ghz wären
Und stattdessen 30% kleiner dann 579mm² und etwa +15% mehr Takt =2,07ghz und das bei stolzen 493w
Sprich die sku mit 136sm wär bei 54tf das macht nvidia sicher nicht am desktop wenn sie den nicht müssten amd rdna3 wird
2,5ghz bei 10240 shadern =40wgp n32 etwa 51tf landen bei etwa 360w-390w
Der n31 indes wird nicht am desktop kommen ein chiplet hat 7680shader und misst 546mm² bei nen waferpreis von min 16500$
preise ab 2699€ möglich für etwa 76,7tf
ein sku darunter also maxed 24wgp=6144*2=12288shader dan noch 61tf und etwa 1999€
Und darunter chiplets mit nur 20wgp die auch kleiner sind 364mm² und einer uvp von nur 1699€
N33 wird aber 6nm sein die chipfläche reduziert sich nur um 15% und wird nur 16wgp sein. allerdings um 15% mehr takt.
Sprich für 442mm² dann eine uvp von nur 699€ als rx7800 bei etwa 24,7tf
Also wird amd die architektur geändert habenden das wäre zu klein
Mögliche anpassung ein wgp kann 3 fp32 operationen das würde mal schnell die performance explodieren lassen was dann als rx7800st mit 4096*3*2,5=30tf ergeben würde
Und beim n32 als rx7900xt mcm dann 46tf
liste
rx7600xt n33 12wgp 399€ 23tf
rx7700xt n33 14wgp 499€ 26tf
rx7800xt n33 16wgp 699€ 32tf
rx7900xt n32 32wgp 1999€ 46tf

N34 wurde gecancelt was ein rebrand der rdna2 generation vermuten lässt also 6nm für n22 und n23
daher sehe ich als rx7500xt den n22 mit 40cu 2560shader bei 2,8ghz 14,3tf für 299€
Und das low end beim n23 rx7500 mit 11,8tf für 199€ und das passiert schon 2023
nvidia kann nur mit glück die preise einhalten
Ein ad107 mit etwa 169€ und nur 4gb gddr6 16gbits bei etwa 8,8tf
mal ne liste
rx7500 11,8tf uvp möglich bei 11,8tf mit 8gb vram 199€ vs rtx4050 8,8tf 4gb vram 169€ 6nm wafer
rx7500xt 14,3tf 8gb uvp möglich ab 299€ vs rtx4050ti ad106 3sm maxed 32sm aktiv 14,1tf 289€ 6nm wafer
rx7600xt 23tf 399€ vs rtx4060 22,9tf (ad104 60sm auf 52sm) 429€
rx7700xt 26,5tf 499€ vs rtx4060ti 70sm 29,5tf 579€
rx7800xt 36tf 699€ vs rtx 4070 84sm37tf 679€
rx7900xt 46tf 1199€ vs rtx4080 52tf 1099€
rtx4090 54tf 1499€
Ich glaube aber kaum das amd die wenigen wafer also sku pro wafer am desktop bringen wird es kommen nur 29 gute gpu raus und cut 19 da wird exemplarisch nicht genug kapazität da sein.
zumal der 5nm node primär für zen4 ist.

wieso ich da nvidia immer amd unterbieten wir ist klar wenn intel dazukommt den die sind mit arc 128 und 2,4ghz bei 5tf für 99€
arc 384 dann 14,3tf für 199€
arc 512 mit 19,8tf bei 299€

Der letzte stand war das eine xe igp mit 96EU etwa 78fps in valorant hatte auf 720p
Der arc 512 wird 365fps schaffen und der arc 384 278fps vorausgesetzt es setzt kein cpu limit an
dagegen läuft es auf anspruchsvolleren spielen (fc new dawn low) eher schlechter als bei nvidia vergleichweise ist die gt1030 um 22% schneller als die 96Eu der igp umgerechnet wären das beim arc 128 274fps vs rtx3050 313=13% langsamer
Cpu limit nicht ausgeschlossen.
Sofern es intel schafft aus den arc 128 5tf arc 384 14tf und arc 512 19,8tf entsprechend vernünftige treiber zu bringen.
Dann wird das nachhaltig die preise senken.
Nur ob amd und nvidia das können wird spannend
 
Ich habe eine recht technische Frage.
Wie sieht es mit der Langlebigkeit solcher Karten aus? Wie halten die Lötkugeln das aus? Ich dachte BGA Lötstellen haben das Problem, dass sie nicht gut auf Arbeit reagieren können? Wie sieht das bei einem so großen Verbrauch aus?
 
Die Sache mit "wird effizienter, aber verbraucht am Ende doch mehr" ist übrigens nicht ganz so neu.

Meinem Bauchgefühl nach sehen wir vielleicht die 450 W bei der FE vom Top-Modell und womöglich dürfen sich wassergekühlte Customs bis zu 600 W gönnen, aber die meisten Modelle werden wohl darunter bleiben.
Die kleineren Karten werden sicherlich spürbar von der Effizienzsteigerung profitieren, auch wenn es wohl vieler verschiedener Modelle bedarf, um jeden Verbrauchsbereich abzudecken. Ansonsten ist der Griff zum Powerlimit und eventuell UV auch kein Hexenwerk, auch wenn das wohl leider nur eine Minderheit in Betracht zieht.

Bezogen auf Spieler sehe ich als bekennender Umweltschonungs-Befürworter den Verbrauch der großen Modelle auch nicht als so gravierend an. Zum Einen werden die Karten mit hohem Verbrauch allein durch den Preis schon weltweit nicht so oft abgesetzt werden und zum Anderen denke ich, dass in der Schnittgruppe aus "ich kann und will mir eine der großen Karten leisten" und "ich will nicht viel Strom verbrauchen" dann auch relativ viele Leute mit Senkung des PL, evtl. UV und am besten noch Frame Limitern zusammen mit *Sync umgehen können. Ich fand's z. B. in Borderlands 2 immer schön zu sehen, dass sich laut RTSS die 6900 XT(1) nur zweistellig gegönnt hat, weil ich bei 95 fps (max. 100 Hz am Monitor) mit Adaptive Sync begrenzt hab ^^

1) Leider absolut kein Glück mit dem Silizium. In keinem UV-Thread eine gesehen, die so wenig Spielraum hat wie meine ^^ Sie läuft hier aber weiterhin, weil ich durch WaKü-Umbau zu bequem zum Umtausch bin und das generell moralisch mindestens zweifelhaft finde.

Auf Mining bezogen will ich keine Abschätzungen machen, wie sehr die Modelle mit hohem Verbrauch genutzt werden würden. Einerseits wird es denen, die es im etwas größeren Maßstab tun, wohl eher egal sein, ob sie zwei kleinere oder eine größere Karte anklemmen, solange die Hashes pro Watt einigermaßen ähnlich sind und andererseits werden die Karten da ja tendenziell nicht mit ausgereiztem PL betrieben. Vor allem Proof of Work gegenüber bin ich nicht gerade positiv eingestellt, aber ich sehe nicht wirklich, was ich gegen Mining tun könnte. Scalper (ob ich Alternate, MF, etc. da jetzt dazu zählen würde, könnte ich aus dem Bauch heraus nicht sagen) würde ich jedenfalls aus Prinzip nicht unterstützen und meine 6900 XT konnte ich zum Glück bei einem Drop abgreifen.
 
Zurück
Oben