News GPU-Gerüchte: RTX 4090 und RX 7900 sollen (fast) 100 TFLOPs erreichen

flappes schrieb:
Ja und, sollen wir alles einfach so hinnehmen wie du?
flappes schrieb:
Wir haben halt ANSPRÜCHE!
flappes schrieb:
Es geht dabei ja auch nicht nur um den Verbrauch, sondern auch um Kühlung und Lautstärke, die i.d.R. Hand in Hand mit der Abwärme gehen.
flappes schrieb:
Also echt, das regt mich auf.
Wer zwingt dich denn, die teuerste und bis an die Kotzgrenze übertaktete High-End-Karte zu kaufen?
Spar dir das Geld und nimm eine kleinere Karte ohne die von dir beschriebenen Probleme.

Ist doch Kinderkram, wenn du dich genötigt fühlst, das absolute Top-End-Modell zu kaufen, obwohl es andere Karten gibt, die exakt dem entsprechen, was du dir von einer Karte wünschst. Du erweckst mit diesem Mimimi eher den Eindruck, als bräuchtest du Top-End als Statussymbol. Falls das deine "ANSPRÜCHE" sind, solltest du dir aber weniger Gedanken um die neuen Karten machen, als eher darum, was in deinem Leben falsch läuft. Du regst dich hier über eine Option auf, nicht über eine Pflicht.
 
  • Gefällt mir
Reaktionen: owned139, FeelsGoodManJPG, Cohen und 4 andere
SFFox schrieb:
Dass man exponentiell auch den Stromverbrauch reduziert kriegt geht einfach nicht. Das hat auch nichts zu tun mit "ich will das nicht hin nehmen". Als Verbraucher kann das ja jeder mit entscheiden, kaufen oder eben nicht kaufen... oder eben nicht die großen Modelle kaufen.
Ich glaube das verlangt auch keiner. Bisher war es doch so das alle paar Generationen der Verbrauch gestiegen ist. Aber hier reden wir davon das sich von einer zur nächsten Generation der Verbrauch verdoppeln soll.
Und die jetzige Generation verbraucht auch schon sehr viel. Ich hoffe das es bei der nächsten Generation in 2024 wieder runter geht mit dem Verbrauch. In den letzten 15 Jahren haben sich die Highend-Karten immer zwischen 150-250w bewegt wieso das jetzt auf 350-400w steigt und dann Endes diesen Jahren bis 800-900w steigen soll ist doch einfach nur irre.
Ich hoffe das der Markt das mit Verzicht quittiert. Was den Anstieg beim verbrauch erklären könnte das dieser garnicht auf uns zugeschnitten ist sondern sich an die Miner richtet.
 
ThePlayer schrieb:
Bisher konnte man immer die Highend-Karten ohne solche hanebüchenen Vorschläge in seinem Rechner unter dem Schreibtisch betreiben.
Und nun halt nicht mehr, weil offenbar eine physikalische Grenze erreicht wurde. Die riesigen Sprünge der vergangenen Jahrzehnte sind durch Strukturminimierung offenbar nicht mehr möglich.
Es wird nicht die letzte Limitierung im Bereich Consumer High-Tech bleiben oder dachtest Du, dass das mit der Leistungssteigerung immer so weiter gehen wird bis in die Unendlichkeit?

Neben Nvidia wird sich ja zeigen, was AMD, Intel und der neue chinesische Hersteller bieten können. Vielleicht sind die ja erfolgreicher in Sachen Leistung/Leistungsaufnahme.

Und nochmal, es wird auch weiterhin möglich sein, immens leistungsstarke Rechner unterm Schreibtisch zu betreiben, im Sommer und ohne weitere Kühllösungen dann halt nicht mehr mit der größten Karte.

ThePlayer schrieb:
Und nach deiner Logik brauche ich in 5-10 Jahren selbst für eine Einsteigerkarte ein Mini-RZ um diese zu betrieben oder wie denkst du dir das?
Kennst Du die Leistungsdaten der Einsteigerkarten schon? Es wird auch weiterhin Lösungen geben, die unter 100 Watt Leistung aufnehmen. Möglich, dass es keine dedizierten Karten mehr sein werden, sondern dass dieses Segment dann mit APUs abgedeckt wird. Schau Dir die erstaunliche Leistung des Steam Decks an bei 40 Watt Leistungsaufnahme an. Es besteht gar kein Grund zur Panik.
 
Ich hoffe für die Mittelklasse gibt es auch einen attraktiven Leistungssprung zu vernünftigen Preisen. Hier würden mich die Releasetermine besonders interessieren und ich hoffe das zieht sich nicht wieder 13 Monate von High-End bis Low-End.
 
MichaG schrieb:
stehen jetzt sogar 100 TFLOPs Rechenleistung im Raum
Und das sind 35 TFLOPS 2004:
248px-EarthSimulator.jpg

Quelle: Wiki

Schon Wahnsinn, wie es da voran ging. Vor allem, wenn man Computer wie den Cray 1 mal im Original gesehen hat.
 
  • Gefällt mir
Reaktionen: Recharging, MichaG und ThirdLife
latexdoll schrieb:
Es kann so nicht weiter gehen, das man immer mehr (übermässig) Energie aufwendet um ein mehr an Leistung zu bekommen.
Das ist aber nun mal ein physikalisches Gesetz. Anders geht das gar nicht.
 
  • Gefällt mir
Reaktionen: FeelsGoodManJPG
Also wenn die kommenden 4000 und 7000er 100TFlops haben dann könnten die 5000 und 8000er zwei Jahre später ja theoretisch 240tflops haben.
Ich hab ne RX 570 und nen 32er 1440p mir reicht die Leistung der Karte (5 tflops).
Ich denke das werden Mining Karten.
 
Mehr als 250W kommen mir erstmal nicht in den Tower. Wenn es dafür bald 3090 Leistung gibt - gerne.
 
  • Gefällt mir
Reaktionen: b|ank0r
Shoryuken94 schrieb:
Wenn eine 4060 z.B. 250 Watt statt der 170 Watt der 360 verbraucht, aber schneller als eine 3080Ti oder 3090 ist, dann passt es trotzdem.
Ja, und die 5060 braucht dann 350W und man muss zur 5050 gehen, aber nach unten macht nvidia jetzt schon nicht mehr viel. Es erhöht sich eben womöglich alles und man landet irgendwann bei jeder Karte >300W.

Zumal ich doch keine 500€ für ne 4060 ausgebe um diese dann händisch drosseln zu müssen, womöglich noch Garantie verliere.

Mehr Leistung durch immens mehr Strom zu ermöglichen ist einfach nicht der richtige Weg und wirkt eher wie Hilflosigkeit.
 
  • Gefällt mir
Reaktionen: DevPandi und b|ank0r
Weshalb setzt AMD denn immer auf ein 265bit Speicherinterface und wagt nicht auch einmal eines mit 384 bit?

Ich wäre dankbar, wenn das jemand gut bzw. ausführlich und mit den entsprechenden technischen Hintergründen erklären könnte.
 
Beitrag schrieb:
Tja, 300 € für den Einsteig, gut möglich, dass es darauf hinausläuft.
Hach ja, und vor einigen Jahren noch waren 200 € Mittelklasse.
Welche Mittelklasse-Karte soll das gewesen sein ? Da bin ich jetzt richtig gespannt. Als was definierst du Mittelklasse ? Ne 1070 ? Die lag bei 380€ zum Start. Ne 1060 ? Die lag zwischen 250 und 300.

Oder ist ne 1050 Mittelklasse neuerdings ?

ThePlayer schrieb:
Dann kommt noch das Problem der Abwärme, was du und viele andere die sich an 400w und mehr nicht stören nicht verstanden haben.
Welches Problem ? Dimensionier deine Kühlung richtig.

ThePlayer schrieb:
Du hast eine 3080 mit einem Verbrauch von 300w und jetzt hast Du da plötzlich eine Heizung mit 600w mit der Abwärme von CPU und restlichem System kannst Du locker ein 20-25m² heizen im Winter. Was machst du die restlichen 8-9 Monate im Jahr schaltest Du eine Klimaanlage ein damit Du vor dem Rechner sitzen kannst?
Ich hab eine 450W Karte mit einer CPU die ich auf 250W prügeln kann, dazu noch ein NAS mit 8 Platten, einen kleinen Proxy / FTP und dazu noch das übliche wie Monitore / TV und diversen Kleinscheiss.

Ein 60qm Wohnzimmer heize ich damit so gar nicht. Wo nehmen alle das immer her ? Und wenn dein Zimmer so super klein wäre, als dass man etwas merken würde, dann musst du dir halt die Frage stellen: brauche ich 100 TFLOP überhaupt ?

ThePlayer schrieb:
Was für ein Quatsch wieso sollte man das machen wollen. Und außerdem selbst wenn kann das nicht jeder. Oder will es nicht.
Also weil du es nicht willst/kannst/faul/geizig bist sollen alle anderen sich deinem Wunsche beugen und auf Leistung verzichten die DU anscheinend gar nicht brauchst und somit ohnehin eine 200W Karte kaufen könntest ? Das wäre die Definition von selbstzentrischer Weltanschauung.

ThePlayer schrieb:
Was ist das überhaupt für eine Rechtfertigung. Bisher konnte man immer die Highend-Karten ohne solche hanebüchenen Vorschläge in seinem Rechner unter dem Schreibtisch betreiben.
Ja und vor 20 Jahren konnte man noch für 1.10 tanken gehen. Vor 20 Jahren hat die Miete aufm Dorf nur 200€ gekostet statt 500 wie jetzt. Früher war immer alles besser. Besonders wenn man an die Hexenverbrennungen und sonstige täglichen Massaker denkt. 😂

ThePlayer schrieb:
Und nach deiner Logik brauche ich in 5-10 Jahren selbst für eine Einsteigerkarte ein Mini-RZ um diese zu betrieben oder wie denkst du dir das?
a) brauchst du die Karte höchstwahrscheinlich nicht so wie du dich hier gebärdest und b) wird es auch dann sparsamere Modelle geben und nicht nur EIN Modell.

ThePlayer schrieb:
Selten so dumme Argumente gehört. Ach ne warte da war doch das selbe das mehr Leistung auch mehr Kosten muss von Jahr zu Jahr.
Inflation, Entwicklungskosten sowie steigende Rohstoffpreise sind dir keine Begriffe ? Merkt man.

ThePlayer schrieb:
Stimmt als ich mir letztens meine 2TB PCI-E 4 SSD gekauft habe hat mich das auch 5000 Euro gekostet. Oder auch meine Grafikkarten und CPUs haben jedes mal 30-50% mehr gekostet weil diese ja auch soviel schneller geworden sind. Wenn ich solche Kommentare lese dann kann ich nur an das Profilbild von @Sunblocker denken :D
Dir ist bewusst, dass die Preise die letzten zwei Jahre nur so waren weil es mehrere Krisen zugleich gab und derzeit weiter gibt teilweise ? 699 UVP waren für eine 3080 und die Leistung die man bekam doch kein 50% Mehrpreis gegenüber dem langsameren Topmodell davor. Woher nimmst du also diese imaginären 50% Mehrkosten ?

Ist jetzt ein 5950er Ryzen plötzlich frech teuer gegenüber einem 7700K Launchpreis von 305 $ nur weil es dir schwer fällt die Leistung dem gegenüber in Relation zu setzen ?

ThePlayer schrieb:
Aber hier reden wir davon das sich von einer zur nächsten Generation der Verbrauch verdoppeln soll.
Von welcher Karte reden wir jetzt genau ? Einer etwaigen 4090 / Titan ? Dann reden wir von EINEM Modell. Und die Leistung steigt demgegenüber auch. Wäre es jetzt besser nur 20% Mehrverbrauch zu bringen bei nur 20% Mehrleistung ? Und in fünf Jahren sind wir dann gleich weit ? Wo ist jetzt da der Sinn ? Fühlst du dich dann besser ?

ThePlayer schrieb:
Und die jetzige Generation verbraucht auch schon sehr viel.
Wenn man sich das Highend Modell kauft und maximal OCed, ja. Musst du das ? Brauchst du das ?

ThePlayer schrieb:
Ich hoffe das es bei der nächsten Generation in 2024 wieder runter geht mit dem Verbrauch.
Den Verbrauch hast DU in der Hand. Weder bist du gezwungen dir ein 900W Highend Modell zu holen, noch bist du gezwungen es permanent am Limit zu betreiben. In Relation zur Leistung dürfte der Verbrauch eher deutlich sinken.

ThePlayer schrieb:
In den letzten 15 Jahren haben sich die Highend-Karten immer zwischen 150-250w bewegt wieso das jetzt auf 350-400w steigt und dann Endes diesen Jahren bis 800-900w steigen soll ist doch einfach nur irre.
Da spricht jemand der so richtig Ahnung hat. Die 1080 Ti lag in diversen Topmodellen schon über 300W, eine 980 Ti ist eine lahme Krücke mit 250W Verbrauch ggü. einer 3080 Ti die bei gleicher Performance 120-150W erreicht, wenn überhaupt.

Eine R9 295X2 lag auch schon bei 500W. Und was du offenbar grundsätzlich ausser acht lässt ist, dass es ja darauf ankommt wieviel Leistung du unterm Strich für welchen Leistungseinsatz holst.

Ich glaub es wird sich kein Gamer beschweren wenn er die Leistung einer aktuellen 450W Karte in Zukunft mit einer 300W Karte bekommt. Wenn er dann noch die Option hat die auf 600 zu OCen ist das nur added value und kein MUSS.

ThePlayer schrieb:
Ich hoffe das der Markt das mit Verzicht quittiert. Was den Anstieg beim verbrauch erklären könnte das dieser garnicht auf uns zugeschnitten ist sondern sich an die Miner richtet.
Wieso sollte er ? Unterm Strich kriegen alle mehr Leistung bei weniger Leistungseinsatz und nach oben hin können sich ein paar Extremisten nun noch krankere Hardware kaufen. Wo liegt der Schaden ?

Und warum sollte sich ein hoher Verbrauch an Miner richten ??? Das ist mit das absurdeste was ich diesen Monat gehört habe. Mehr Stromverbrauch = weniger Profit. Sollte klar sein oder ? Aua. 🤦‍♂️
Ergänzung ()

habla2k schrieb:
Ja, und die 5060 braucht dann 350W und man muss zur 5050 gehen, aber nach unten macht nvidia jetzt schon nicht mehr viel. Es erhöht sich eben womöglich alles und man landet irgendwann bei jeder Karte >300W.
Selbst wenn dies so wäre. Was hindert dich daran einen Slider zu ziehen auf sagen wir 75% und dann deine 300W Karte bei 225W zu betreiben aber dennoch mehr Leistung als der Vorgänger mit 250W zu haben ? Dein Ego weil du jetzt eine x50er Karte holst ?

habla2k schrieb:
Zumal ich doch keine 500€ für ne 4060 ausgebe um diese dann händisch drosseln zu müssen, womöglich noch Garantie verliere.
Aha, des Pudels Kern, es geht also um Preise die eh noch keiner kennt. Warum sollte die Garantie verfallen wenn du dein Powerlimit nach UNTEN setzt ? Besser man wäscht sein Auto auch nie selbst sondern nur wenn er beim Händler zur Wartung ist, nicht dass gute Pflege die Garantie kostet am Ende 😂

Ich merk schon langsam wird nach jedem Strohhalm gegriffen.

habla2k schrieb:
Mehr Leistung durch immens mehr Strom zu ermöglichen ist einfach nicht der richtige Weg und wirkt eher wie Hilflosigkeit.
Physik nennt sich das. Die Karten werden zusätzlich ja immer effizienter wenn man sie nicht am totalen Limit betreibt plus weitere Alternativen a la DLSS und FSR werden ja auch angeboten. German Angst wieder mal. Oder eher German Unverständnis ?

RickZor schrieb:
Weshalb setzt AMD denn immer auf ein 265bit Speicherinterface und wagt nicht auch einmal eines mit 384 bit?

Ich wäre dankbar, wenn das jemand gut bzw. ausführlich und mit den entsprechenden technischen Hintergründen erklären könnte.
Weil man damit Speichergrössen von 8 und 16GB realisieren kann. Bei 384 Bit wären es 12 und 24 GB. Wenn die Karten alle 16GB haben sollen bleibt nur 256 oder 512.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: FeelsGoodManJPG
ThePlayer schrieb:
In den letzten 15 Jahren haben sich die Highend-Karten immer zwischen 150-250w bewegt
R9 290 X (besonders im "Uber-Modus")?

https://www.computerbase.de/artikel...0-290x-fury-x-vega-64-vergleich.64605/seite-3

GTX Titan, GTX 690, HD 7790?

https://www.computerbase.de/artikel/grafikkarten/amd-radeon-r9-290x-test.2263/seite-10
Ergänzung ()

ThePlayer schrieb:
Und nach deiner Logik brauche ich in 5-10 Jahren selbst für eine Einsteigerkarte ein Mini-RZ um diese zu betrieben oder wie denkst du dir das?
Mein Einsteiger-PC aus dem Jahr 2022 braucht übrigens nur 7 - 25 Watt insgesamt. Nennt sich Steam-Deck und ist recht effizient.

Das Spektrum der Leistungsaufnahme wird also in beide Richtungen erweitert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: [SM]Valen
habla2k schrieb:
Ja, und die 5060 braucht dann 350W und man muss zur 5050 gehen, aber nach unten macht nvidia jetzt schon nicht mehr viel. Es erhöht sich eben womöglich alles und man landet irgendwann bei jeder Karte >300W.

Wie wäre es einfach, wenn wir uns nicht in irgendwelche Vermutungen stürzen, sondern einfach mal warten, was da kommt? Wie bei jeder neuen Generation dürfte die Effizienz leicht steigen und welche Leistungsabstufungen es geben wird, wird sich zeigen. Ich bin mir ziemlich sicher, das man genauso wie vorher auch nach unten hin alles mögliche anbietet, alleine weil es für die Notebooks benötigt wird.
 
  • Gefällt mir
Reaktionen: Cohen
Ich finde diesen Hinweis auf den wccftech-Artikel hätte sich CB sparen können.

Es ist aus den Tweets klar ersichtlich, dass hier geschätzt und geraten wird und keine geleakten Informationen verbreitet werden.

Wie dass die rein theoretischen TeraFlop-Werte nur eingeschränkt auf die Gaming-Performance hinweisen, ist seit langem bekannt.

Ich kann deshalb nicht nachvollziehen warum über diese Mutmaßungen so ein Wind gemacht wird. Fest steht AMD und Nvidia greifen in die Vollen. Was aber tatsächlich als Gaming-Performance ankommt muss man abwarten. Die schiere Masse an FP32-Einheiten muss erst einmal beschäftigt werden.

PS.: heute hat Greymon55 übrigens die auch von ihm verbreite Zahl von 15360 FP32-Einheiten für Navi 32 in Frage gestellt.
Navi 31: 12288
Navi 32: 8192
Navi 33: 4096

Da wären wir wieder bei den 1x 2x 3x.

RickZor schrieb:
Weshalb setzt AMD denn immer auf ein 265bit Speicherinterface und wagt nicht auch einmal eines mit 384 bit?

Ich wäre dankbar, wenn das jemand gut bzw. ausführlich und mit den entsprechenden technischen Hintergründen erklären könnte.
Das wurde doch schon oft und hinreichend erklärt.

Kurzfassung: Durch den Inifinity Cache müssen die GPUs weniger auf den Speicher zugreifen, also kommen die GPUs mit weniger Speicherbandbreite aus. Und kleinere Speicherbandbreite kann auch mit einen schlankeren Speicherinterface erreicht werden.

Für die Langfassung gibt es viele Artikel zu RDNA2, ua. .
https://www.computerbase.de/artikel..._das_ist_neu_i_die_geheimwaffe_infinity_cache
 
  • Gefällt mir
Reaktionen: Sherman789
Zanza schrieb:
Alle setzten auf Strom blöd ist nur, dass es kaum alternativen gibt zum Atomkraftwerken und hier macht die Regierung aber nicht mit. Das führt nun mal zu hohen Stromkosten.
Vermutlich haben schon x Leute darauf hingewiesen, aber ich mach es nochmals:

Weißt du was Strom aus AKWs kostet!?!?? Die baut aus wirtschaftlichen Gründen kaum jemand mehr.
 
  • Gefällt mir
Reaktionen: andi_sco und LamaMitHut
Auch wenn der Stromverbrauch abnormal sein wird ! Ich freu mich auf die 4090 wenn die ballert würde ich meine 3090 verkloppen da ich eh immer 4K zocke.
 
ThirdLife schrieb:
Welches Problem ? Dimensionier deine Kühlung richtig.
Das hat nichts mit dem Kühler zu tun sondern der warmen Luft die hinten aus dem Rechner abgeführt wird. Da hilft auch kein größerer Kühler.
 
  • Gefällt mir
Reaktionen: andi_sco
ThirdLife schrieb:
Welche Mittelklasse-Karte soll das gewesen sein ? Da bin ich jetzt richtig gespannt. Als was definierst du Mittelklasse ? Ne 1070 ? Die lag bei 380€ zum Start. Ne 1060 ? Die lag zwischen 250 und 300.

Oder ist ne 1050 Mittelklasse neuerdings ?
Reichen deine Erinnerungen nur bis Pascal zurück?
Ich hatte früher bspw. 'ne 7870 XT
https://www.computerbase.de/preisve...st-edition-ax7870-2gbd5-2dhppv3e-a871365.html
190 €
Die normalen 7870er lagen auch um 200. Die 270X später lag in der 4 GB Version auch bei ca. 200, mit 2 GB nochmal deutlich billiger. Die R9 380er lagen auch bei ca. 200.
Wenn ich noch ein paar Generationen zurückgehen würde, würd's auch nicht teurer werden.

Bei Nvidia lagen die 960er auch bei ~ 200, die 760er war auch in den Gebiet und die GTX 660 genauso.

Die Karten wurden erst mit Pascal und Polaris, wo auch das Etherum-Gemine losging, langsam immer teurer.
 
  • Gefällt mir
Reaktionen: andi_sco
Ok, schöne Spekulationen und alles, aber ob die RX so hoch takten? Neuer Ansatz, neue Technik und so. Als die ersten "zusammengeklebten" CPUs kamen, waren die auch keine Taktwunder. Oder siehe den 5800x3d mit seinem Cache, fixer Takt. Ja ist was ganz anderes, aber für mich als Laien geht das in diesselbe Richtung. Deshalb halte ich 3Ghz für utopisch.
 
100 TFLOPs, wie uninteressant, wieviel MH/s? :mussweg:
 
  • Gefällt mir
Reaktionen: Sherman789, Recharging und latexdoll
Zurück
Oben