News GPU-Gerüchte: RTX 4090 und RX 7900 sollen (fast) 100 TFLOPs erreichen

Alles was mit GPUs zu tun hat, ständig die gleichen Kommentare über Strompreise und unsinnige Autovergleiche.

Der GPU-Kauf ist höchst individuell und von vielen Faktoren abhängig, es gibt nun einmal Leute die noch mit Full HD unterwegs sind, dort reicht auch oft noch eine alte GTX 1080, während andere bereits auf 8K spielen möchten, was 16x soviele Pixel sind, dort kommt man aber nur mit der maximalen Leistung (z.B. RTX 3090 Ti) und erweitertem Featureset (DLSS) an spielbare fps.

Also bitte hört auf mit diesen verallgemeinernden Aussagen, dass NIEMAND eine Karte mit 900W haben möchte, ökologische Aspekte sollten in einem Hardwareforum auch nicht ständig betont werden, man kennt seinen gegenüber nicht gut genug - eventuell lebt die Person abseits von ihrem Gaminghobby CO2-neutral oder besitzt eine PV-Anlage.

Nun zu diesen Gerüchten:
Ich finde es einfach nur unsinnig, man muss kein Insider sein, um die Leistung/Verbrauch in etwa abschätzen zu können, ist ja nicht der erste Generationswechsel, dass die neue Spitze ziemlich hungrig wird ist ja nun seit vielen Monaten "bekannt".
Im Endeffekt werden die Karten wieder schneller und effizienter als ihre Vorgänger und je weiter man zurückblickt, desto größer wird die Lücke - nicht überraschend.

Die wirklich interessanten News wären neue Features.
 
  • Gefällt mir
Reaktionen: PS828 und ThirdLife
RTX4070 250 Watt x 4 Stunden Zocken pro Tag x 365 = 365kwh x 0,40€ = 146€ pro Jahr
RTX4080 500 Watt x 4 Stunden Zocken pro Tag x 365 = 730kwh x 0,40€ = 292€ pro Jahr

Alle regen sich über 150€ Mehrkosten auf aber so viel bezahlt man für 2 Tankfüllungen.
 
  • Gefällt mir
Reaktionen: ThirdLife und calippo
Na ja es ist doch nicht so einfach. Ich sage jetzt mal eine 3090 Ti ist ein negativ Beispiel aber man kann nicht Leistung eines Lamborghini‘s verlangen und gleichzeitig den Verbrauch eines Fiat Tipos.

Ich denke trotz der guten Technik das es eben Grenzen gibt. Und an diese stoßen wir halt gerade. Ich bin auch dafür das selbst High End Hardware sich in bestimmten Parametern bewegen sollte, weil High End ist für mich nicht gleich als „Umweltsünde“ abgestempelt sondern sollte das „beste“ der momentan erhältlichen Technischen Möglichkeiten sein. Dazu gehört auch der Verbrauch einer solchen Karte.

Alles was wir momentan sehen von Nvidia oder Intel ist das sie einfach nur immer mehr Energie durch die Leitung pressen. Das hat nichts mehr mit einer tollen technischen Leistung zutun, zumindest für mich.

Also ich hoffe das da noch Fortschritte kommen. Solange wir noch keine Dyson Spähre bauen können sollten wir Energie sinnvoll nutzen. Und ja ich weiß es geht ums Gaming….. ihr wisst was ich meine!
 
  • Gefällt mir
Reaktionen: ReVan1199 und b|ank0r
Blumentopf1989 schrieb:
3 Stunden am Tag ist für eine/n Gamer/in rein gar nichts, nebenher musst du auch den höheren Verbrauch im Idle und bei Videos etc. bedenken.

Vielleicht ist das hier der Grund, warum viele so weit aneinander vorbei reden. Im Schnitt 3h am Tag richtig unter Last zocken, also über 1000h pro Jahr ist rein gar nichts? Ein Durchschnittsmensch schläft 8h, arbeitet/lernt 8h, braucht ca. 4h für Körperpflege, Essen, Wege, sonstiges. Da bleiben vielleicht 4h zur komplett freien Verfügung, wie will man das noch steigern?

Zumindest aus Kostensicht ist der Mehrverbrauch/Kosten an Strom auch bei intensivster Nutzung überschaubar, wie die Rechenbeispiele zeigen.
Selbst wenn jemand sein Leben komplett Gaming widmen würde, also 16h am Tag dauerzocken bei 1000 Watt und die kWh 40 Cent kostet, sind das 6,4€ Stromkosten am Tag, so viel wie eine Schachtel Zigaretten.

Ja, es gibt Gründe, das nicht gutzuheißen. Der Kostenfaktor für den Stromverbrauch ist es eher kein Argument.
 
  • Gefällt mir
Reaktionen: ThirdLife
Laphonso schrieb:
Auch wenn es generell stimmt: Für die letzten fps steigt der Verbrauch jedoch erheblich.
Doch die Angabe von Gaspedal passt schlichtweg in Zahlenwerten so nicht. Du reduzierst nicht die Leistungsaufnahme um ~ 30 % und hast dann nur "5 fps" weniger.
Den 1:1 Vergleich würde ich gerne mal in Cyberpunk Psychosettings sehen mit 240 vs 360 Watt.

Wenn da "nur 5 fps" weniger rauskommen, sponsore ich Gaspedal ein Jahresabo Computerbase Pro :)
Edit: CPU Limits gelten nicht :D

Schau mal unter Battlefield V bei 4k nach. Spiele mit 120hz (obwohl max 160hz) und habe konstant immer die 120fps die ich brauche. Man spart wirklich viel Strom und merkt den unterschied nicht mal...
Der maximale Verbrauch steigt nicht!! Bei 100% GPU Auslastung habe ich mit Powerlimit +1 max. 250W Verbrauch mit RTX 3080! Ohne undervolting liege ich zwischen 340-370W bei 100% Auslastung. Aber die meisten Spiele laufen selbst auf Ultra und 4k mit nur ca. 50-80% GPU Auslastung. Dann hat man noch weniger Verbrauch, meistens so um die 120W - 150W.

https://www.hardwareluxx.de/index.p...ce-rtx-3080-im-undervolting-test.html?start=2
Ergänzung ()

Eidgenosse schrieb:
Das klingt sehr interessant. Ich muss zugeben, dass ich mich mit dem Thema "undervolting" noch nicht wirklich auseinandergesetzt habe.

Was ich nicht verstehe - warum wird das nicht schon von Werk aus gemacht, wenn der Verbrauch durch undervolting so drastisch reduziert werden kann? Wenn du deine FPS limitierst, müsst er doch schon von sich aus weniger Strom verbrauchen? Oder würdest du gar empfehlen zu undervolten und zusätzlich noch die FPS zu limitieren?

hier gibt es tolle infos darüber. Wirst staunen wie easy das ist. Die Hersteller machen es nicht weil die Benchmarks & Spitzenleistung nun mal für die Tests und Kaufentscheidung wichtig ist. Da verbraucht man lieber mehr Sprit um die paar Kmh noch rauszuholen die kein Mensch im Alltag braucht.

https://www.hardwareluxx.de/index.p...hr-geforce-rtx-3080-im-undervolting-test.html

Ergänzung ()

0ssi schrieb:
RTX4070 250 Watt x 4 Stunden Zocken pro Tag x 365 = 365kwh x 0,40€ = 146€ pro Jahr
RTX4080 500 Watt x 4 Stunden Zocken pro Tag x 365 = 730kwh x 0,40€ = 292€ pro Jahr

Alle regen sich über 150€ Mehrkosten auf aber so viel bezahlt man für 2 Tankfüllungen.
nur 4 Stunden? :D
Habe noch andere Geräte am PC, wie mein Simracing Rig mit 4x Servo Motoren + Fanatec DD Wheel mit Servo, 130W Monitor usw... das sind dann insgesammt mehr wie 1000W und bei ca. 6 Std. Sind dann ca. 900€ im Jahr. Da ist mann froh wenn man dann 100W weniger Verbrauch hat. Trotz undervolting hat man trotzdem Leistung ohne Ende und zur Not kann man es mit ein Klick jederzeit auf volle Leistung umschalten (über MSI Profil).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Eidgenosse
Gaspedal schrieb:
Schau mal unter Battlefield V bei 4k nach.
Ja okay, nur: Das ist eine seeeeeehr genügsame und viele Jahre alte Frostbite Engine, durch die Ampere GPUs chillig segeln. Selbst mit der 2080Ti war BF V die keine Hürde, war ja einer der Nvidia/Turing "Featuretitel" Ende 2018.
Da bekommst Du keine 3080 wirklich unter "Feuer". :-D

Ich habe daher ganz bewusst Cyberpunk mit Psychosettings ausgewählt. Die Grafik- und Raytracingeffekte da fluten die Raster+Render+Raytracing Architektur und fordern mit de facto 100% Auslastung.
Nieeeeeeeeniemals hast Du da mit 240 Watt nur rund 5 fps weniger als mit einer "ungebremstem" 3080. Bin mir sicher Du kommst nicht mal auf 15 fps (Differenz) an das Maximum ran, vielleicht nichtmal 25 fps, wenn Du die 3080 so ausbremst.
Die 120 fps packe ich nicht mal mit der 3090 auf UWQHD Psychosettings btw ^^ Eher schwankend 50 bis 70.

P.S: Das ist kein Beitrag von mir "gegen" UV! Im Gegenteil, ich möchte nur differenzieren.
 
Zuletzt bearbeitet:
Gaspedal schrieb:
Habe noch andere Geräte am PC, wie mein Simracing Rig mit 4x Servo Motoren + Fanatec DD Wheel mit Servo, 130W Monitor usw... das sind dann insgesammt mehr wie 1000W und bei ca. 6 Std. Sind dann ca. 900€ im Jahr. Da ist mann froh wenn man dann 100W weniger Verbrauch hat.
Mal Hand aufs Herz, wer täglich 6h in seinem 1000 Watt Simracing Rig verbringt, den kümmern 900€ im Jahr Stromkosten doch nicht, oder?

Eine Reduktion um 100 Watt reduziert die Kosten pro Stunde um 4 Cent. Wer pro Stunde 50ml weniger Cola trinkt, spart schon mehr ein.

Über den steigenden Stromverbrauch kann man diskutieren, aber doch nicht in diesen absoluten Extrembereichen, die selbst für sehr ambitionierte Gamer jenseits der Realität liegen, zumindest jenseits meiner Realität.
 
Gaspedal schrieb:
Habe noch andere Geräte am PC, wie mein Simracing Rig . Sind dann ca. 900€ im Jahr. Da ist mann froh wenn man dann 100W weniger Verbrauch hat.
Du kannst dich selbst beruhigen in dem Wissen ,dass man mit dieser Summe gerade mal so ein WE in RL bei einem Trackday auskommt.... wenns gut läuft ;-).Teures Auto und teure Strecke kann auch locker mal das Dreifache sein...wenns gut läuft :daumen:

Das weiss man ja auch vorher wenn
man soviel Zeug hat,dass das auch Strom braucht.
 
  • Gefällt mir
Reaktionen: ThirdLife
calippo schrieb:
Mal Hand aufs Herz, wer täglich 6h in seinem 1000 Watt Simracing Rig verbringt, den kümmern 900€ im Jahr Stromkosten doch nicht, oder?

Eine Reduktion um 100 Watt reduziert die Kosten pro Stunde um 4 Cent. Wer pro Stunde 50ml weniger Cola trinkt, spart schon mehr ein.

Über den steigenden Stromverbrauch kann man diskutieren, aber doch nicht in diesen absoluten Extrembereichen, die selbst für sehr ambitionierte Gamer jenseits der Realität liegen, zumindest jenseits meiner Realität.

Nur wegen 900€ im Jahr nicht, aber ich habe 3 PC's im Haus + NAS Server der rund um die Uhr läuft. Beamer auch oft an. Mit Jahresverbrauch von ca. 6500 kw/h sind es eben mehr als wie ein Verbrauch für eine normale 4 köpfige Familie. Das ist eben mein Limit den ich nicht überbieten will. Es ist nun mal mein Hobby und dafür zahlt man gerne aber nicht unnötig mehr. Andere geben für 4 Felgen am Auto locker 10.000€ aus. Für Hobby tut man eben alles. :D
 
Laphonso schrieb:
P.S: Das ist kein Beitrag von mir "gegen" UV! Im Gegenteil, ich möchte nur differenzieren.
Technisch gesehen kann man mit Undervolting eigentlich keinen Strom sparen
sondern "nur" mehr FPS bei gleichem Stromverbrauch bekommen, es sei denn
man untertaktet die GPU auch noch aber dann verliert man natürlich auch FPS.

1755.jpg


Das ist TW3 in 4K und wie man sieht trotz Undervolting Powerlimit 375Watt.
Da müsste ich den Takt wohl auf 1500Mhz begrenzen um wirklich zu sparen.
Oder neben Undervolting auch Powerlimit begrenzen für Auto Boost Takt !?
 
Gaspedal schrieb:
Mit Jahresverbrauch von ca. 6500 kw/h sind es eben mehr.
Und wie viel davon entfällt tatsächlich auf SimRacing @1000Watt?
Nutzt Du das wirklich 6h pro Tag, also 2190h im Jahr?

Wie sieht Deine Rechnung denn tatsächlich aus, wie viel Mehrkosten an Strom hättest Du, wenn Du statt einer 300 Watt Karte eine 600 Watt Karte nutzten würdest? Also Mehrkosten pro Stunde von 12 Cent bei 0,3kWh@40 Cent Mehrverbrauch.

Aber gut, darf ja jeder selbst entscheiden. Ich habe eine 180Watt Karte und will auch nicht wesentlich mehr Abwärme und Stromverbrauch.

Ich habe nur den leisen Verdacht, dass in ein paar Jahren sehr viele Leute eben doch solche Karten verbaut haben und sich dann nicht mehr erinnern, wie das verteufelt wurde. Allgemein gesprochen, ich will einzelnen Foristen hier nichts unterstellen.
 
  • Gefällt mir
Reaktionen: ThirdLife
...
owned139 schrieb:
Es sind nun mal Luxusartikel. Jammerst du auch, weil du keinen Ferrari, keine Yacht und kein Haus am Strand hast?
Es geht hier nicht um jammern, sondern um Kritik die von Leuten wie dir mit verbalen Entgleisungen versucht wird im Keim zu ersticken, bloß weil dir nicht passt was andere zu sagen haben. Pech für dich, sowas muss eine Demokratie aushalten und somit auch alle die darin leben wollen, was dich mit einschließt. Eine Grafikkarte mit einer Yacht oder einem Supersportwagen zu vergleichen ist übrigens schon sehr fern ab vom Schuss, man könnte meinen du hättest gern letzteres aber es reicht eben bloß für ersteres, daher möchtest du das gern auf dieselbe Stufe heben.

owned139 schrieb:
und du bist nicht der Mittelpunkt des Universums der zu bestimmen hat, wer was produzieren/kaufen darf.
Tue ich das? Wo? Du bist übrigens ebenfalls nicht der Mittelpunkt des Universums der anderen den Mund zu verbieten hat!
 
Zuletzt bearbeitet:
Capthowdy schrieb:
Es geht hier nicht um jammern, sondern um Kritik die von Leuten wie dir mit verbalen Entgleisungen versucht wird im Keim zu ersticken, bloß weil dir nicht passt was andere zu sagen haben.
Ich kann bei meinen Posts in diesem Thread keine verbalen Entgleisungen feststellen.

Capthowdy schrieb:
Pech für dich, sowas muss eine Demokratie aushalten und somit auch alle die darin leben wollen, was dich mit einschließt.
Niemand hat dir verboten deine Meinung kund zutun, aber ihr müsst nicht jede neue News zu Lovelace mit dem gleichen "mimimi" über den Verbrauch und die Kosten vollspammen. Jeder sollte mittlerweile mitbekommen haben, dass es einigen sauer aufstört. Irgendwann muss doch auch mal gut sein?
Es führt doch zu nichts.

Capthowdy schrieb:
Eine Grafikkarte mit einer Yacht oder einem Supersportwagen zu vergleichen ist übrigens schon sehr fern ab vom Schuss, man könnte meinen du hättest gern letzteres aber es reicht eben bloß für ersteres, daher möchtest du das gern auf dieselbe Stufe heben.
Nein ist es nicht. Es geht hier nicht um irgendeine Grafikkarte, sondern um die Topmodelle, welche schon immer sehr teuer waren und deshalb macht der Vergleich mit einem Ferrari oder einer Yacht sind, denn eine 4090 bzw. 7900XT ist unter den Grafikkarten ebenfalls der Ferrari.
Ganz davon ab ist aber jede Grafikkarte ein Luxusartikel. Du bist zum überleben nicht darauf angewiesen eine zu besitzen. Es ist reiner Luxus, genau wie ein Ferrari oder eine Yacht.

Capthowdy schrieb:
Tue ich das? Wo? Du bist übrigens ebenfalls nicht der Mittelpunkt des Universums der anderen den Mund zu verbieten hat!
Du/Ihr tut es, indem ihr jede News mit dem "mimimi" vollspammt und keine andere Meinung mehr zulasst.
 
  • Gefällt mir
Reaktionen: ThirdLife
Blumentopf1989 schrieb:
Wenn es danach geht benötigt man gar kein Gaming, man kann ja auch spazieren gehen, ist quasi kostenlos (Abnutzung der Schuhe zähl ich mal nicht). Und wenn man schon spielen muss könnte man auch weiterhin auf einem Monitor mit 1280x1024 spielen, was würde das nur alles sparen, man könnte Hardware von vor 6-8 Jahren nutzen.
Wäre ein guter Anfang für alle die über Verbrauch motzen und gleichzeitig von der teuersten, krankesten Highend-Hardware ausgehen.

Blumentopf1989 schrieb:
3 Stunden am Tag ist für eine/n Gamer/in rein gar nichts,
Aha. Und welcher "Gamer" ist damit angesprochen ? Jemand der das als "Beruf" ausübt ? Irgendwelche Teenies ? Welcher normal arbeitende Menschen der noch sowas wie ein Sozialleben hat kann dermassen viel Zeit da rein investieren ?

Wie schon geschrieben, der Tag hat nur 24 Stunden, davon schläft man acht und arbeitet acht in aller Regel, macht noch acht Stunden für dich, einkaufen, kochen, putzen, duschen, Freunde treffen etc. will man ja auch noch oder ? Wo bringst du da deutlich mehr als drei Stunden pro Tag unter ?

Da musst du aber arg viel konstruieren um so einen Fall zu erzeugen.

Blumentopf1989 schrieb:
nebenher musst du auch den höheren Verbrauch im Idle und bei Videos etc. bedenken.
Jo, da reden wir dann um was ? 10 Watt ? Videos decodieren geht ja in aller Regel über eine Hardware-Implementation (NVENC/DEC) zB. und ist daher eher sparsam.


Blumentopf1989 schrieb:
Ich ging zudem eher von dem 600 Watt Modell aus. Und wer wirklich die 3090 für 2000€ und mehr gekauft hat dem ist der Verbrauch wahrscheinlich eh egal, das stimmt, wer sie vielleicht für "nur" 1500€ gekauft hat und einen guten Deal für die alte 2080ti gemacht hat sieht das vielleicht anders.
Und das war dem Käufer dann nicht bewusst dass die Karte Verbrauch X hat ? Ziehst du dann auch in Wohnungen ohne den Vertrag zu kennen und motzt später über den Preis ?

Blumentopf1989 schrieb:
Ich komme beim groben überschlagen auf mehrere Hundert Euro Mehrkosten, sofern ich mein PC Verhalten und das diverser Anderer ansetze.
Wieviele Stunden pro Jahr zockst du ? Bei welcher Hardware und von welchem zukünftig erwarteten Mehrverbrauch gehen wir aus ? Lass uns das mal durchrechnen, ich bin gespannt.

Blumentopf1989 schrieb:
Und diese "ich habe nur Kosten von 14 Cent" ja schön, mit Haus und Solarpanel ist eh alles egal, das tifft jedoch nach wie vor nur auf einen Bruchteil der Bevölkerung zu. Mehr als 50% wohnt in Mehrfamilienhäusern und haben gar nicht die Möglichkeit das zu nutzen und selbst die mit einem Haus haben nicht alle eine Solaranlage.
Ich wohne zur Miete und habe keine Solarpanels. Strompreise in CH sind einfach nicht so beknackt wie in Deutschland. Ist aber kein Problem AMDs oder nVidias sondern der Deutschen und ihrer dämlichen, unfähigen Politik. Andere Länder kriegen das hin.

Firstdim schrieb:
Du weißt aber, dass die Sachen kompliziert, komplexer werden, und trotzdem kostet die Herstellung immer weniger. Ich weiß was kosteten die Autos, die meine Firma produziert früher und was jetzt, es werden stetig die Kosten gesenkt auch, wenn meist auf Kosten der Werker.
Die Herstellung kostet im Halbleiterbereich aber immer mehr, die Verfahren werden komplexer und die Arbeiter sind halt keine Billiglöhner. Und dir eine billige Karte zu verschaffen auf Kosten anderer Menschen findest du dann wiederum ok ? Mehr Doppelmoral geht ja nicht. Selbst motzen aber andere dürfen gerne arm dran sein.

Firstdim schrieb:
Hast mich nicht verstanden, das meinte ich nicht.
Mir geht's darum, dass manche Produkte werden verfrüht auf'm Markt gebracht, um den Anschluss nicht zu verlieren, sprich Konkurrenz.
Die Erscheinung Modellen wie die 6900 als Beispiel war verfrüht und hätte es niemals geben sollen, man hatte einfach an die Stelle von 6900 erst die 7700 einführen mit gleiche Leistung und niedrigeren TDP.
Genau, und in der Zwischenzeit kein Geld verdienen und den Laden schliessen. Ergibt völlig Sinn.

Firstdim schrieb:
Genauso die obere Modelle der neuen Gen sei es Nvidia oder AMD mit 7900 und angeblichen 600 W TDP, müssen nicht erscheinen, da in zwei Jahren bietet die nächste Generation wieder das gleiche mit mehr Leistung und haben wir eine Karte wie die 7900 dafür aber mit ein Bruchteil der Energiebedarf.
Jedes Jahr erscheinen die High-end Karten mit enormen Verbrauch und zwei Jahre später leistet die neue Generation bessere Leistung bei deutlich niedrigeren Konsum, dann warum nicht weiter forschen und erst bei annehmbaren Daten auf'm Markt bringen 🤷‍♂️
Ich weiß, da die Konkurrenz...deswegen sollen Regelungen der EU, wie zb bei Staubsauger war das der Fall.
Du verschiebst das Problem nur in die Zukunft, in der aber auch die Anforderungen seitens Software evtl. schon wieder deutlich gestiegen sind. Das Ergebnis bleibt aber unterm Strich gleich. Massiv mehr Leistungszugewinn bedeutet auch eine höhere Leistungsaufnahme. Bei gleicher Leistung sinken die Verbräuche ja ständig.

Eidgenosse schrieb:
FPS lässt sich ja auch limitieren. Wer sich eine 4080 kauft anstelle einer 4070 und auf 100 FPS limitiert, der spart so Watt, hat aber auch mehr Leistung übrig, wenn sie abgerufen werden soll, zb. wenn die Qualitätseinstellungen höher sein sollen.

Würdet ihr meiner Schlussfolgerung zustimmen wenn ich behaupte, der Wattverbrauch wird bei einer Generation durch die benötigte FPS und die Pixeldichte generiert. Demzufolge eine 4070 oder 4080 bei gleicher Anzahl FPS ziemlich die gleiche Anzahl Watt verbrauchen wird? Der Verbrauch bestimmt nicht ob die Grafikkarte eine 4070 oder eine 4080 oder 4090 ist, sondern das verwendete Display und die zu berechnende FPS.

Die Karten laufen ja nicht dauernd unter Vollast..
Das predige ich hier ständig, scheint aber kaum einer kapieren zu wollen...

416c schrieb:
Ich hab keine 599$, sondern 300€ gezahlt und das ist einige Jahre her. Zum nächsten Wechsel zahle ich ebenfalls maximal 300€ und erwarte dabei nun mal die doppelte Leistung bei gleichem Verbrauch. Wenns nichts wird warte ich eben. Früher oder später klappt das auf jeden Fall und kein Spiel das mich interessiert ist aktuell unstemmbar.

Aber es werden auch wieder genug Leute für ein Leistungsplus von 20%, bei 2% gesteigerter Effizienz upgraden, weil: höher, schneller, weiter.
Ah, ok, also vergleichen wir jetzt gebrauchte Karten oder EOL-Ausverkäufe mit dem Neupreis zum Release einer anderen Karte, evtl. auch noch während einer Chip-Shortage ? Dass das keinen Sinn macht dürfte klar sein oder nicht ?

Das Effizienz-Plus ist schon von meiner 1080 Ti zur 3080 weit höher gewesen als 2%. Wir reden hier von 50%+, aber macht nichts. Ich erwarte schon gar nicht mehr, dass die Leute ihre Zahlen auf die Kette kriegen. Was die 1080 Ti bei mir mit 300W gestemmt hat konnte die 3080 mit 150-200W abbilden je nach Spiel.

Und das Leistungsplus lag oben raus bei über 80%, die neue Gen soll ja auch nochmal in dem Rahmen drauflegen. Wenn du das nicht brauchst und warten kannst umso besser für dich.

BobaFett schrieb:
Ja ich habe win Setup zuhause auf dem ich zocke, aber das ist schon 8 Jahre alt da ich soviel Leistung nicht brauche. Wenn ich jedoch am arbeiten bin und 3D Rendering in 4K mache oder selbst bei größeren Projekten in FullHD benötige ich durchaus einiges an Leistung.
Dann nutzt du es also gewerblich ? Damit wäre es ja absetzbar und sowieso egal, da es dir ja etwas einbringt und jede gesparte Minute in Produktivität oder mehr Projekte fliesst.

Wenn du jetzt ein "Hobby-Arbeiter" bist und eigentlich nix damit verdienst ist das evtl. dann halt nicht das richtige Produkt für dich und du "brauchst" es de facto wohl doch nicht so sehr, da die gesparte Zeit dir nichts einbringt.

BobaFett schrieb:
So und unabhängig davon. Es geht mir nicht perse um die 900Watt Version. Sondern ich finde auch 600W für den Costumer Bereich ziemlich krass. Mir ist durchaus bewusst, dass die Effizienz bezogen auf die Leistung ansteigt. Doch ich finde die allgemeine Entwicklung der letzten Jahre ziemlich krass. Wenn man aktuell einen Topend Rechner kaufen will/benötigt, dann kommt man um ein 1000W+ Netzteil quasi gar nicht mehr rum. Ich hoffe daher sehr, dass dieser Trend so nicht einfach weiter geht, sondern neue Architekturen eventuell neue Maßstäbe setzten können. Denn so wie es gerade läuft ist es für unsere Umwelt durchaus bedenklich.
Fahr ein Jahr EV statt Benziner/Diesel, da hast du die nächsten zig Jahre "Gaming-Strom" in Sachen Umwelt querfinanziert. Bedenklich ist es nur wenn deine Ansprüche steigen, wenn du statt 1080p auf einmal in 8K zocken willst und natürlich auch Raytracing, am besten Dual 8K Monitore, dann braucht das halt mehr Power und die muss irgendwo herkommen.

Wenn du das nicht brauchst, warum solltest du dann "Top-End" kaufen ? Kannst der Umwelt ja helfen indem du eine 200W Karte holst und dann halt einfach mehr Zeit für deine Anwendungen brauchst. Ob das dann aber effizienter ist statt kurz mehr Leistung zu verballern ?

BobaFett schrieb:
Das ist mein Take der aktuellen Situation. Deiner mag anders sein, dennoch solltest Du dich darin üben sachlich zu bleiben und nicht zu werten. Nichts desto trotz bin ich sehr gespannt auf die neuen Karten und hoffe, dass da was interessantes für mich bei ist. Und auch das die Preise dann hoffentlich annehmbar werden.

PS.: nein, das ist nicht off topic denn es geht mir um die aktuelle Marktentwicklung und die aktuellen Gerüchte.
Ich werte doch niemandes Anwendungszwecke. Soll jeder machen was er will. Aber wenn man halt sagt ich "brauche" das, dann ist das gefühlt oft einfach nur Ego im Sinne von "ich hab immer die x90er Karte gekauft, das MUSS ich jetzt auch weiter tun auch wenn es null bringt".

0ssi schrieb:
RTX4070 250 Watt x 4 Stunden Zocken pro Tag x 365 = 365kwh x 0,40€ = 146€ pro Jahr
RTX4080 500 Watt x 4 Stunden Zocken pro Tag x 365 = 730kwh x 0,40€ = 292€ pro Jahr

Alle regen sich über 150€ Mehrkosten auf aber so viel bezahlt man für 2 Tankfüllungen.
Und gemessen an den Kosten für andere Hobbies ist PC Gaming immer noch relativ günstig. Selbst wenn man sich alle drei Jahre einen nagelneuen Rechner für 3k€ hinstellt, welches andere Hobby kann man für 1k pro Jahr ausüben das so viele Möglichkeiten - auch produktive - bietet ?

Selbst beim Fussball für Kinder war meine Torwart-Ausstattung früher eher teuer. Was man da für mehrere Satz Schuhe, Handschuhe, Hosen, Mitgliedschaften, Sportbrille usw. alles zahlt und dann alle zwei Jahre auch wegwerfen kann weil man ja wächst...

Oder eine Mitgliedschaft im Fitness-Studio, da bist auch schnell 100+ im Monat los. Grad wenn man sportlich aktiv ist summiert sich das alles schnell auf, da ist ein Rechner den man nach drei Jahren im Zweifel mit ner neuen GPU aufrüstet und erst nach fünf bis sechs Jahren ne neue Plattform kauft echt günstig.

Aber jo, Hauptsache noch mal über nen Fuffi oder Hunni Strom im Jahr geflennt, das ist wohl Mode so aktuell. :D
 
Man könnte langsam mal damit anfangen die Länge eurer Beiträge in Zeit und Energieaufwand (Watt) zu bemessen und das in Relation zu den GPUs zu stellen 😉😁
 
  • Gefällt mir
Reaktionen: ReVan1199, MadMaxx87, Ork from Mork und 4 andere
owned139 schrieb:
Du/Ihr tut es, indem ihr jede News mit dem "mimimi" vollspammt und keine andere Meinung mehr zulasst.
Lenke nicht ab und zeige mir wo ich das in dem zitierten Beitrag tue, immerhin hast du mich angesprochen.

owned139 schrieb:
Jeder sollte mittlerweile mitbekommen haben, dass es einigen sauer aufstört. Irgendwann muss doch auch mal gut sein?
Nochmal: du entscheidest hier nicht wann andere damit aufhören müssen ihre Meinung zu äußern, ganz egal wie oft sie selbige schon geäußert haben. Lebe damit oder höre auf die Beiträge zu lesen, so einfach ist das.

owned139 schrieb:
und deshalb macht der Vergleich mit einem Ferrari oder einer Yacht sind, denn eine 4090 bzw. 7900XT ist unter den Grafikkarten ebenfalls der Ferrari.
Nein, nach wie vor ist der Vergleich kompletter Nonsens, denn es bleibt eine popelige Grafikkarte, egal ob sie nun 500€ oder 2000€ kostet. Sollte jemand den Verbrauch eines Ferrari kritisieren, dann hat er dazu ebenfalls alles Recht der Welt ohne von Leuten wie dir als "Neider" oder sonstwas diffamiert zu werden.

owned139 schrieb:
Ganz davon ab ist aber jede Grafikkarte ein Luxusartikel.
Das wird ja immer besser, jetzt darf man also eigentlich gar keine Luxusartikel mehr kritisieren, weil man braucht sie ja nicht. Vielleicht solltest du mal überdenken ob ein Forum, wo sich andere Menschen frei äußern dürfen ohne dich um Erlaubnis bitten zu müssen, der richtige Ort für dich ist?
 
  • Gefällt mir
Reaktionen: Onkel Föhn
ThirdLife schrieb:
Genau, und in der Zwischenzeit kein Geld verdienen und den Laden schliessen. Ergibt völlig Sinn.
Die Intervallen werden länger, Geld fließt aber weiterhin.
ThirdLife schrieb:
Massiv mehr Leistungszugewinn bedeutet auch eine höhere Leistungsaufnahme. Bei gleicher Leistung sinken die Verbräuche ja ständig.
Warum vergolde ich die Zeit ?
Habe doch erklärt, dass jeder nächste Generation Modelle hat, die das gleiche bei geringerem Verbrauch leisten.
Deswegen hast mir auch über "Geld verdienen" in der Zwischenzeit geschrieben, siehe oben.

b|ank0r schrieb:
Man könnte langsam mal damit anfangen die Länge eurer Beiträge in Zeit und Energieaufwand (Watt) zu bemessen und das in Relation zu den GPUs zu stellen 😉😁
....hab mir gerade überlegt wie viel Zeit ihn das gekostet hat, da bleibt tatsächlich nicht viel aus der 8h Netto Tag.
Eidgenosse schrieb:
Wer sich eine 4080 kauft anstelle einer 4070 und auf 100 FPS limitiert, der spart so Watt, hat aber auch mehr Leistung übrig, wenn sie abgerufen werden soll, zb. wenn die
Exactly, der einziger Grund, dass im letzten Moment aus der 6700XT eine 6900 geworden ist. Die Reserven kosten geringere Aufpreis als, wenn ich in einem Jahr wiederum neue Karte kaufen müsste.
 
  • Gefällt mir
Reaktionen: Eidgenosse
@Capthowdy in meinem Post habe ich dir doch schon geschrieben, dass dir hier niemand das Wort verbietet. Liest du die Beiträge eigentlich komplett durch, bevor du antwortest?
Ich äußere, genau so wie du, auch nur meine Meinung, aber im Gegenteil zu dir bzw. einigen anderen, welche du mit deinem Post verteidigst, mache ich das nicht unter jeder News mit den selben Phrasen aufs neue.
Scheinbar kommst du nicht damit klar, dass du Kontra bekommst und fängst an mir Worte in den Mund zu legen, deshalb wars das an der Stelle auch für mich.
 
Artikel-Update: Auch RedGamingTech hat die neuen mutmaßlich korrekten Spezifikationen für Navi 31 und Navi 32 bestätigt. Das heißt nicht, dass sie abschließend zutreffend sind, aber es sind die Eckdaten, die glaubwürdige Quellen in der Industrie zurzeit verlauten lassen. Dass darüber hinaus noch eine größere Variante existiert, schließt er derzeit aus: 12.288 Shader sind das Topmodell.

Aus wie vielen Chips bestehen Navi 31 und Navi 32?
RedGamingTech erweitert die aktuelle Diskussion darüber hinaus um einen Aspekt, der bei Navi 31 und Navi 32 mit an Sicherheit grenzender Wahrscheinlichkeit erstmals bei einer Gaming-Grafikkarte von Relevanz sein wird: Die Zusammensetzung der gesamten GPU aus mehreren einzelnen Chips.

Denn während RDNA 2 (RX 6000) und aller Voraussicht nach auch Navi 33 auf einem einzigen „monolithischen“ Chip basieren, so wie es Nvidia Ampere (RTX 3000) tut und auch Nvidia Ada (RTX 4000) nachgesagt wird, sollen Navi 31 und Navi 32 auf mehreren Chips basieren. Nicht öffentlich bekannt ist, wie viele Chips von welchem Typ zum Einsatz kommen.

Die Gerüchte um den Multi-Chip-Aufbau gehen bis in den Sommer 2021 zurück. Damals hieß es, Navi 31 würde sich aus zwei Graphics Compute Dies (GCD, übernimmt das Rendering) und einem Memory Controller Die (MCD), der den Grafikspeicher adressiert und den Infinity Cache beinhaltet, zusammensetzen.

Nur ein statt zwei GCDs
RedGamingTech will aus verlässlicher Quelle nun erfahren haben, dass sowohl Navi 32 als auch Navi 31 nur auf einem GCD und dafür mehreren MCDs basieren. AMDs Ansatz bei RDNA 3 wäre damit ein gänzlich anderer als bei Instinct MI200 mit einer GPU auf basis von zwei kompletten GPU-Dies.

Möglich wäre, dass ein MCD über ein 64 Bit breites Speicherinterface und 128 MB Infinity Cache verfügt. Vier MCDs bei Navi 31 würden damit die bereits mehrfach kolportierten 512 MB Infinity Cache und das bekannte 256 Bit breite Speicherinterface bedeuten, bei Navi 32 könnten drei MCDs wiederum ein 192 Bit breites Interface und 384 MB großen Cache bedeuten. Zu Navi 31 kursieren aber auch ein 384 Bit breites Interface und weniger Infinity Cache in Industriekreisen.

Grundsätzlich wird, auch mit Blick auf Ryzen und Epyc, davon ausgegangen, dass AMD auch bei GPUs ein modulares System anstrebt. D.h. identische Chiplets lassen sich auf verschiedenen Produkten in unterschiedlichen Konfigurationen kombinieren. Mit nur einem GCD würden Navi 31 und Navi 32 beim zentralen Element zwar noch auf verschiedene Chips setzen, der MCD wäre allerdings bereits identisch – und zu Anfang könnte Navi 32 auch einen beschnittenen GDC von Navi 31 nutzen.

RedGamingTech hat in der Vergangenheit bereits mit sich als richtig herausstellenden Leaks auf sich Aufmerksam gemacht. Er war zum Beispiel der erste, der im Vorfeld der Vorstellung von RDNA 2 vom großen Infinity Cache berichtet hatte.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, Col. Jessep, PietVanOwl und 5 andere
Firstdim schrieb:
Die Intervallen werden länger, Geld fließt aber weiterhin.
Dann hast du im Ergebnis aber dennoch dasselbe, nur einfach in längeren Intervallen. Ob ich jetzt 2x50% Steigerung habe in in vier Jahren aber alle zwei Jahre oder ob ich alle vier Jahre einmal 100% habe macht ja im Endeffekt keinen Unterschied. Die Leistung muss dennoch irgendwo herkommen. Mehr Transistoren, mehr Speicher, immer schnellerer Takt von beidem, all das kostet eben doch Leistung und kann nicht allein nur durch Strukturverkleinerung aufgewogen werden.

Letztlich gibts ja schon Mittel um die Leistung nochmals effizienter zu holen - DLSS & FSR.

Firstdim schrieb:
....hab mir gerade überlegt wie viel Zeit ihn das gekostet hat, da bleibt tatsächlich nicht viel aus der 8h Netto Tag.
Letztlich arbeite ich in der Hauptsache an Projekten und da zählt nur das Ergebnis bis zur Deadline und nicht ob ich an einem Tag mal vier, sechs oder acht Stunden produktiv war. ;)
 
Zurück
Oben