News GPU-Gerüchte: RTX 4090 und RX 7900 sollen (fast) 100 TFLOPs erreichen

Cohen schrieb:
R9 290 X (besonders im "Uber-Modus")?

https://www.computerbase.de/artikel...0-290x-fury-x-vega-64-vergleich.64605/seite-3

GTX Titan, GTX 690, HD 7790?

https://www.computerbase.de/artikel/grafikkarten/amd-radeon-r9-290x-test.2263/seite-10
Ergänzung ()


Mein Einsteiger-PC aus dem Jahr 2022 braucht übrigens nur 7 - 25 Watt insgesamt. Nennt sich Steam-Deck und ist recht effizient.

Das Spektrum der Leistungsaufnahme wird also in beide Richtungen erweitert.
Bei dem Test mit der Vega64 hast du recht. Die war nicht effizient. Da war die Pscal Generation bei der Effizienz wir vorne. Der andere Test war mit dem Gesamten System gemessen da kannst du dann gut 70w abziehen und die 7990 war eine Dual GPU.

Gut das Steamdeck ist ein Sonderfall und eigentlich eine Tragbare Konsole ich rede aber von Desktop Systemen.
 
Laphonso schrieb:
Das ist ohnehin eine dieser Facetten: Ich bin von der 2080 Ti und 27 Zoll auf die 3090 und 34 Zoll UWQHD umgestiegen.

Positiv: Ich hatte quasi keinen fps Verlust bei gleichen Settings und ultraweit liefert die viel bessere Spielimmersion. Ein Grund für auch, 4K weiterhin zu ignorieren, aber das ist ein anderes Thema.

Negativ: Der Sprung von der 2080Ti auf die 3090 verpuffte in großen Teilen aufgrund des Wechsels der Auflösung.

Wer immer noch auf 1080p spielt, kann das sicher gelassener verfolgen. Das ist nicht die 4090 oder 7900 Zielgruppe.

Ich "brauche" für meine Games, und das, was ich spiele, definitiv viel mehr Punch als die bereits mir zu langsame 3090.
Und bin daher sehr gespannt auf das, was AMD und Nividia im top end Segment abliefern werden.

Da ich auch auf UWQHD zocke und mit einer Radeon RX 5600XT ganz gut klar komme, möchte ich dich völlig wertungsfrei und wirklich rein aus Interesse fragen, was du in welchen Einstellungen spielst :)

Ich meine, ne 3090 pulverisiert ja meine GraKa. Da finde ich es spannend, warum du mit dieser Karte scheinbar nicht gänzlich zufrieden bist, ich mit meiner viel schwächeren dafür schon ;)

Zum Thema:

Diese Leistungswunder sind selbstverständlich nur etwas für absolute Enthusiasten. Allein der Verbrauch ist mir als umweltbewusstem Familienvater viel zu hoch.
Für viele mag dies bei der im Vergleich geringen Absatzmenge bei gleichzeitig vergleichsweise geringer Nutzungsdauer keine Rolle spielen. Ich hätte da aber trotzdem Probleme mit meinem Gewissen.

Hoffentlich sinkt der Verbrauch mit den nächsten Generationen wieder. Der Trend ist in meinen Augen einfach bedenklich.
 
  • Gefällt mir
Reaktionen: Laphonso
Beitrag schrieb:
DIe 7870 ist mit 349 $ gelaunched worden, die 270X launchte in der 2GB Version für 199$, die R9 380 hatte einen Launchpreis von 199 tatsächlich, hatte aber auch nur 2GB Speicher.

Die Karten wurden massiv grösser zwischenzeitlich und leistungsstärker und mit mehr Speicher bestückt, das kostet Geld ist schon irgendwie klar oder ? Zum Vergleich, die R9 380 hat 190W gezogen und das mit nur 970 Mhz, 2GB lahmem Speicher und einem vergleichsweise kleinen Chip (1792 Shadern).

Die neuen Mittelklassekarten mit wohl um die 10 Gig Speicher plus 8xxx Shadern bei 2.5Ghz plus, die dürfen nix ziehen und nix kosten. Inflation sollte man übrigens auch einkalkulieren - eine damalige 200€ Karte ist nach 10 Jahren Inflation (+20%) schon ohne die anderen Gegebenheiten zu berücksichtigen bei 240€ im Preis.

Es ist pure Einbildung zu denken früher wars fast gratis und heute alles zu teuer. Wenn das so ist, dann ist lediglich das Gehalt einiger Menschen offenbar komplett stehen geblieben. Und DAFÜR kann dann nur der entsprechende Arbeitgeber was, bzw. wechselunwillige Menschen und nicht andere Firmen die ihre Preise anheben um ihrerseits evtl. bessere Löhne zu zahlen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: FeelsGoodManJPG
Es geht mir nicht um die Preise direkt zum Launch, sondern um jene, die sich ein paar Monate nach Release einpendeln. Und das waren bei allen genannten Preise im niedrigen 200€-Bereich oder knapp drunter.
 
Beitrag schrieb:
Es geht mir nicht um die Preise direkt zum Launch, sondern um jene, die sich ein paar Monate nach Release einpendeln. Und das waren bei allen genannten Preise im niedrigen 200€-Bereich oder knapp drunter.
Und dabei Corona, Scalper, Mining und alles drumrum was zusammenkam mal schnell aussen vor gelassen ? Sorry, ich bitte dich. Äpfel und Birnen.

Damals lief halt alles glatt, manchmal tuts das halt nicht. Das ist aber nicht bewusst so eingepreist gewesen. Die einzige Generation wo ich wirklich das Gefühl hatte man hat recht wenig fürs Geld bekommen war RTX2000.
 
ThirdLife schrieb:
Und dabei Corona, Scalper, Mining und alles drumrum was zusammenkam mal schnell aussen vor gelassen ? Sorry, ich bitte dich. Äpfel und Birnen.
Was genau willst du eigentlich von mir? Alles, was ich gesagt habe, war, dass man früher noch für 200 € eine Mittelklassekarte bekommen hat, ganz ohne Wertung, mehr nicht.
 
  • Gefällt mir
Reaktionen: Tapion3388
ThirdLife schrieb:
Welche Mittelklasse-Karte soll das gewesen sein ? Da bin ich jetzt richtig gespannt. Als was definierst du Mittelklasse ? Ne 1070 ? Die lag bei 380€ zum Start. Ne 1060 ? Die lag zwischen 250 und 300.

Oder ist ne 1050 Mittelklasse neuerdings ?


Welches Problem ? Dimensionier deine Kühlung richtig.


Ich hab eine 450W Karte mit einer CPU die ich auf 250W prügeln kann, dazu noch ein NAS mit 8 Platten, einen kleinen Proxy / FTP und dazu noch das übliche wie Monitore / TV und diversen Kleinscheiss.

Ein 60qm Wohnzimmer heize ich damit so gar nicht. Wo nehmen alle das immer her ? Und wenn dein Zimmer so super klein wäre, als dass man etwas merken würde, dann musst du dir halt die Frage stellen: brauche ich 100 TFLOP überhaupt ?


Also weil du es nicht willst/kannst/faul/geizig bist sollen alle anderen sich deinem Wunsche beugen und auf Leistung verzichten die DU anscheinend gar nicht brauchst und somit ohnehin eine 200W Karte kaufen könntest ? Das wäre die Definition von selbstzentrischer Weltanschauung.


Ja und vor 20 Jahren konnte man noch für 1.10 tanken gehen. Vor 20 Jahren hat die Miete aufm Dorf nur 200€ gekostet statt 500 wie jetzt. Früher war immer alles besser. Besonders wenn man an die Hexenverbrennungen und sonstige täglichen Massaker denkt. 😂


a) brauchst du die Karte höchstwahrscheinlich nicht so wie du dich hier gebärdest und b) wird es auch dann sparsamere Modelle geben und nicht nur EIN Modell.


Inflation, Entwicklungskosten sowie steigende Rohstoffpreise sind dir keine Begriffe ? Merkt man.


Dir ist bewusst, dass die Preise die letzten zwei Jahre nur so waren weil es mehrere Krisen zugleich gab und derzeit weiter gibt teilweise ? 699 UVP waren für eine 3080 und die Leistung die man bekam doch kein 50% Mehrpreis gegenüber dem langsameren Topmodell davor. Woher nimmst du also diese imaginären 50% Mehrkosten ?

Ist jetzt ein 5950er Ryzen plötzlich frech teuer gegenüber einem 7700K Launchpreis von 305 $ nur weil es dir schwer fällt die Leistung dem gegenüber in Relation zu setzen ?


Von welcher Karte reden wir jetzt genau ? Einer etwaigen 4090 / Titan ? Dann reden wir von EINEM Modell. Und die Leistung steigt demgegenüber auch. Wäre es jetzt besser nur 20% Mehrverbrauch zu bringen bei nur 20% Mehrleistung ? Und in fünf Jahren sind wir dann gleich weit ? Wo ist jetzt da der Sinn ? Fühlst du dich dann besser ?


Wenn man sich das Highend Modell kauft und maximal OCed, ja. Musst du das ? Brauchst du das ?


Den Verbrauch hast DU in der Hand. Weder bist du gezwungen dir ein 900W Highend Modell zu holen, noch bist du gezwungen es permanent am Limit zu betreiben. In Relation zur Leistung dürfte der Verbrauch eher deutlich sinken.


Da spricht jemand der so richtig Ahnung hat. Die 1080 Ti lag in diversen Topmodellen schon über 300W, eine 980 Ti ist eine lahme Krücke mit 250W Verbrauch ggü. einer 3080 Ti die bei gleicher Performance 120-150W erreicht, wenn überhaupt.

Eine R9 295X2 lag auch schon bei 500W. Und was du offenbar grundsätzlich ausser acht lässt ist, dass es ja darauf ankommt wieviel Leistung du unterm Strich für welchen Leistungseinsatz holst.

Ich glaub es wird sich kein Gamer beschweren wenn er die Leistung einer aktuellen 450W Karte in Zukunft mit einer 300W Karte bekommt. Wenn er dann noch die Option hat die auf 600 zu OCen ist das nur added value und kein MUSS.


Wieso sollte er ? Unterm Strich kriegen alle mehr Leistung bei weniger Leistungseinsatz und nach oben hin können sich ein paar Extremisten nun noch krankere Hardware kaufen. Wo liegt der Schaden ?

Und warum sollte sich ein hoher Verbrauch an Miner richten ??? Das ist mit das absurdeste was ich diesen Monat gehört habe. Mehr Stromverbrauch = weniger Profit. Sollte klar sein oder ? Aua. 🤦‍♂️
Ergänzung ()


Selbst wenn dies so wäre. Was hindert dich daran einen Slider zu ziehen auf sagen wir 75% und dann deine 300W Karte bei 225W zu betreiben aber dennoch mehr Leistung als der Vorgänger mit 250W zu haben ? Dein Ego weil du jetzt eine x50er Karte holst ?


Aha, des Pudels Kern, es geht also um Preise die eh noch keiner kennt. Warum sollte die Garantie verfallen wenn du dein Powerlimit nach UNTEN setzt ? Besser man wäscht sein Auto auch nie selbst sondern nur wenn er beim Händler zur Wartung ist, nicht dass gute Pflege die Garantie kostet am Ende 😂

Ich merk schon langsam wird nach jedem Strohhalm gegriffen.


Physik nennt sich das. Die Karten werden zusätzlich ja immer effizienter wenn man sie nicht am totalen Limit betreibt plus weitere Alternativen a la DLSS und FSR werden ja auch angeboten. German Angst wieder mal. Oder eher German Unverständnis ?


Weil man damit Speichergrössen von 8 und 16GB realisieren kann. Bei 384 Bit wären es 12 und 24 GB. Wenn die Karten alle 16GB haben sollen bleibt nur 256 oder 512.
Eine EVGA 1080 TI FTW3 benötigt 280 Watt:
https://www.tomshardware.com/reviews/evga-gtx-1080-ti-ftw3-gaming,5061-5.html

Die RTX 4070 soll 300 Watt benötigen:
https://www.techpowerup.com/gpu-specs/geforce-rtx-4070.c3890

Das wären dann 20 Watt mehr für mehr als die doppelte Leistung. Wenn ich das richtig verstanden habe, dann soll die RTX 4070 sogar mehr Leistung als eine derzeitige 3090 aufweisen.

Die RTX3090 FTW3 benötigt 350W:
https://productz.com/de/evga-geforce-rtx-3090-ftw3-gaming/p/1Lqnn

So schlecht ist das nicht, zumindest für den WQHD Bereich müsste man ja mit einer RTX4070 gut ausgerüstet sein. Wie es sich mit 4K und RTX verhält, weiss ich jedoch nicht.

Braucht es da wirklich die Titan mit 900 Watt für 4K Raytracing und 100 FPS? Müssen es denn mehr als 100 FPS sein? Ich finde ja schon 100 FPS eine runde Sache.
 
Beitrag schrieb:
Was genau willst du eigentlich von mir? Alles, was ich gesagt habe, war, dass man früher noch für 200 € eine Mittelklassekarte bekommen hat, ganz ohne Wertung, mehr nicht.
Jo. Und ganz früher hat man für n Brot nachm 1. WK noch ne Million gezahlt. :rolleyes:

Schön dass man das so bekommen hat. Früher hat ein Golf auch mal 8000 Mark gekostet bestimmt. Frechheit von VW heute mal mindestens 20k aufzurufen oder ?
 
ThirdLife schrieb:
Jo. Und ganz früher hat man für n Brot nachm 1. WK noch ne Million gezahlt.
Stell dich nicht so an. An der Inflation liegt es nicht, das wissen wir beide und wir kennen die Gründe für das nun ganz andere Preisgefüge.
1651522809480.png
 
  • Gefällt mir
Reaktionen: mm19
ThirdLife schrieb:
Jo. Und ganz früher hat man für n Brot nachm 1. WK noch ne Million gezahlt. :rolleyes:

Schön dass man das so bekommen hat. Früher hat ein Golf auch mal 8000 Mark gekostet bestimmt. Frechheit von VW heute mal mindestens 20k aufzurufen oder ?
Wenn die Preise steigen gleichzeitig das Geld durch die unlimitierte Geldvermehrung weniger wert wird, sehe ich darin schon ein Problem...
 
  • Gefällt mir
Reaktionen: Tschitta
Eidgenosse schrieb:
Eine EVGA 1080 TI FTW3 benötigt 280 Watt:
https://www.tomshardware.com/reviews/evga-gtx-1080-ti-ftw3-gaming,5061-5.html

Die RTX 4070 soll 300 Watt benötigen:
https://www.techpowerup.com/gpu-specs/geforce-rtx-4070.c3890

Das wären dann 20 Watt mehr für mehr als die doppelte Leistung. Wenn ich das richtig verstanden habe, dann soll die RTX 4070 sogar mehr Leistung als eine derzeitige 3090 aufweisen.

Die RTX3090 FTW3 benötigt 350W:
https://productz.com/de/evga-geforce-rtx-3090-ftw3-gaming/p/1Lqnn

So schlecht ist das nicht, zumindest für den WQHD Bereich müsste man ja mit einer RTX4070 gut ausgerüstet sein. Wie es sich mit 4K und RTX verhält, weiss ich jedoch nicht.

Braucht es da wirklich die Titan mit 900 Watt für 4K Raytracing und 100 FPS?
Stimmt alles, und nein, natürlich braucht man das nicht. Darauf will ich ja raus. Hier echauffiert man sich darüber obwohl es auch günstigere sowie effiziente Lösungen geben wird.

Die "brauchen"-Frage ist allerdings immer so ne Sache. Es braucht auch keiner nen Ferrari. Ist dennoch schön zu fahren. Es braucht auch keiner ein fünf Gänge Menü zur Hochzeit, Schnipo langt bei weitem.

Das kann man endlos weiter so drehen. Es wird halt einige wenige Leute geben die sich das Maximum einfach holen wollen weil sie Freude dran haben. Wenn man sich die Steam Hardwarecharts ansieht sind das eh nur 0,5% der Welt zusammengerechnet die Titan Vs und 3090er haben. Das wird sich mit einer 4090 nicht ändern.
 
  • Gefällt mir
Reaktionen: Tschitta, Laphonso und Eidgenosse
Alle die keine 600 Watt GPU wollen: Es gibt auch eine Mittelklasse, die dennoch effizienter als die aktuelle Generation sein wird.
Immerhin wird jetzt der 5nm Prozess genutzt und nicht mehr 8 bzw. 7nm.
 
  • Gefällt mir
Reaktionen: Laphonso, bensen, Tzk und 3 andere
Beitrag schrieb:
Stell dich nicht so an. An der Inflation liegt es nicht, das wissen wir beide und wir kennen die Gründe für das nun ganz andere Preisgefüge.
Anhang anzeigen 1214337
1651523021184.png

Das sind 15-20%, wir haben 2022.

Und nein an der Inflation allein liegt es nicht. Das hab ich auch nie behauptet, die tut aber ihren Teil auch dazu. Immer schnellerer und teurerer Speicher und mehr davon kostet genauso was wie immer komplexere Fertigungsverfahren (EUV und Co).

Denkst du TSMC und Co lassen sich das nicht bezahlen ? Dazu noch ne ordentliche Pandemie und logistische Probleme, Kurzarbeit allerorten und Produktionsausfälle, Panik- und Hamsterkäufe, zeitgleich enormer Bedarf fürs Home Office an Hardware generell...es gibt viele Gründe, hab auch nie was anderes behauptet oder wo liest du das ?

Und dazwischen kommst dann du und meinst "früher wars aber billigaaaah". Ja wow, no shit Sherlock. Hat sich auch nix geändert.


Eidgenosse schrieb:
Wenn die Preise steigen gleichzeitig das Geld durch die unlimitierte Geldvermehrung weniger wert wird, sehe ich darin schon ein Problem...
Ja, das ist aber keins das nVidia oder AMD oder Intel erschaffen haben sondern ein Problem unseres Systems.
 
ThePlayer schrieb:
Bei dem Test mit der Vega64 hast du recht. Die war nicht effizient. Da war die Pscal Generation bei der Effizienz wir vorne. Der andere Test war mit dem Gesamten System gemessen da kannst du dann gut 70w abziehen und die 7990 war eine Dual GPU.
Ich hab sogar mal 75 Watt abgezogen:

75_Watt.png


Und selbst wenn man 100 oder 150 Watt für CPU & Co. abzieht, ist deine Pauschalaussage "In den letzten 15 Jahren haben sich die Highend-Karten immer zwischen 150-250w bewegt" nicht haltbar.

"Die 7990 war eine Dual GPU" ist auch eine schlechte Ausrede, denn du sprachst von "Highend-Karten", nicht von "Highend-GPUs". Auch diese Grafikkarten wurden als eine Einheit verkauft, völlig egal was da im Hintergrund werkelt.

https://www.heise.de/newsticker/mel...erne-8-TFlops-525-Watt-1000-Euro-1674396.html

Die Grafikkarte versorgt sich über gleich drei 8-Pin-Stromstecker und darf daher unter Last insgesamt 525 Watt verheizen (3 × 150 Watt plus 1 × 75 Watt PCIe-Slot). Powercolor empfiehlt zum Betrieb der Karte mindestens ein 850-Watt-Netzteil. Über den CrossFire-Anschluss lässt sich die Karte noch mit einer weiteren zusammenschalten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: owned139 und FeelsGoodManJPG
ThePlayer schrieb:
Ich glaube das verlangt auch keiner. Bisher war es doch so das alle paar Generationen der Verbrauch gestiegen ist. Aber hier reden wir davon das sich von einer zur nächsten Generation der Verbrauch verdoppeln soll.
Wenn ich hier so quer lese, könnte man schon ein paar Aussagen so auffassen, als würden sie das verlangen. Sicherlich sind nicht alle so blind. Wenn man den Zahlen glauben kann steigt im Verhältnis zu diesem Verbrauch aber auch die Leistung und das nicht nur wie bei einem popeligen SLI um 50%. Doppelter Verbrauch bei doppelter Leistung oder gar noch ein wenig Mehrleistung wäre im Verhältnis Watt/FPS ja auch immer noch ok. Die Frage, die sich jeder dann stellen muss ist: "Brauche ich die FPS?"

Meine RX 6800 ist aktuell eine, der effizientesten Karten am Markt in Watt/FPS und in vielen Games reichen mir da auch immer noch die 60fps je nach Genre und per Chill fahre ich die auch nicht brutal aus.

Für 4k nativ und RayTracing oder auch VR, wenn die Bildschirme höher aufgelöst sind, braucht es diese Rechenpower. Bis das mit 250Watt möglich ist... kA wie lange das braucht ;)
 
  • Gefällt mir
Reaktionen: ThePlayer
Wenn sich das bewahrheitet, bleibe ich wohl noch sehr lange bei meiner RTX 3060 TI.
Durch UV zieht die nur 150 W und reicht für mich in WQHD für alles aus.
Mal abwarten was da zum Ende hin dann kommt.
 
  • Gefällt mir
Reaktionen: b|ank0r
Laut Videocardz soll der Maximalausbau der drei RDNA3-SKUs jeweils reduziert worden sein.
N31: 12288 statt 15360 Shader
N32: 8192 statt 10240 Shader
N33: 4096 statt 5120 Shader

Ich vermute, AMD erreicht mehr Performance als gedacht beim MCM-Ansatz, bzw. hat weniger Performance-Verlust als gedacht. Dementsprechend können sie die Chips jeweils kleiner fertigen und günstiger sein bei gleicher Leistung.
 
UNRUHEHERD schrieb:
Klingt nach etwas, das im Grunde direkt an eine Miningfarm vermarktet werden kann. Enorme Rechenleistung, massiver Stromverbrauch, Preis eines Kleinwagens. Grafikkarten werden für Spieler ganz schön langweilig.
… und hast dabei noch Spaß und musst nich auf eine trostlose Heizung gucken..😉
 
Alphanerd schrieb:
Najo, wenigstens bekommen die armen Käufer 9k Euro von meinen (als Krankenpfleger erarbeiteten( Steuergeldern.
Stimmt nicht bei rund 70000 Euro netto Liste ist Schluss mit Förderung. Und ich denke das es bald noch deutlich günstiger werden muss um noch eine Prämie abzugreifen.
Ergänzung ()

Cohen schrieb:
Die 7990 war eine Dual GPU" ist auch eine schlechte Ausrede, denn du sprachst von "Highend-Karten", nicht von "Highend-GPUs". Auch diese Grafikkarten wurden als eine Einheit verkauft, völlig egal was da im Hintergrund werkelt.
Oh entschuldige das ich diese schon damals sinnlosen Dual GPUs vergessen habe. Ja dann habe ich mich wohl etwas vertan bei den Wattzahlen, ist ja auch schon etwas her. Ich bleibe trotzdem dabei eine Verdoppelung des Verbrauchs ist einfach nur Wahnsinn vor allem wenn man sich vor Augen führt wie sich durch unser tun der letzten 150 Jahre das Klima wandelt. Ich finde es tut auch nicht not da mit der Watt-Brechstange diese Leistung zu erzwingen. Und wie hier einer schon schrieb damit Nvidia dann wieder beim E-Penis Vergleich ein paar % vor AMD liegt. Und ehrlich gesagt wenn man nicht jeden Tag wie ein besenkter 8-10 Stunden am Tag vor der Kiste hockt und Zockt. Bleibt ja immer noch das Problem der Abwärme die in den Raum geblasen wird. Bei 600w und mehr brauche ich spätestens im Sommer eine Klimaanlage.
 
Zuletzt bearbeitet:
Zurück
Oben