News GPU-Gerüchte: RTX 4090 und RX 7900 sollen (fast) 100 TFLOPs erreichen

Onkel Föhn schrieb:
"Den kolportierten 100 TFLOPS bei Nvidia Ada stehen damit vorerst 75 TFLOPS bei RDNA 3 gegenüber, in der aktuellen Generation sind es 40 TFLOPS (RTX 3090 Ti) gegen 21 TFLOPS (RX 6900 XT)"

In Rasterization (ca. 98,3 % aller Games) wird es für Team Red auch dieses mal wieder reichen ... :freaky:

MfG Föhn.
Ich frage mich jetzt als Laie ob das nur die Daten für ein Chiplet sind. Aber dann wenn ich mir die 75 TFLOPS anschaue verstehe ich wieso Nvidia mit der Brechstange kommt. 100 TF bei Nvidia könnten 50-60 TF bei AMD entsprechen was ja ein enormer Vorsprung für AMD wäre. Die große Frage ist jetzt wie wird der Verbrauch bei RDNA 3 sein?
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Frankieboy schrieb:
Da bin ich so etwas von bei Dir.

Wobei: Öl und Gas sind preislich explodiert, mal ausrechnen, ob ich meine Wohnung nicht mit der neuesten Graka-Generation günstiger warm bekomme :)

Glaube es mir, das geht, im Notfall kommen eine Dampfsperre und 4-8cm Dämmputz von Innen auf die Tapete. Dann hat sich das mit dem "pfeifen" und "schlottern"
 
andi_sco schrieb:
Du hast das Problem von Hitze auf engem Raum noch nicht verstanden*
Durchaus. Nur kann ich a) meinen Rechner richtig dimensionieren, b) meine Kühlung anpassen c) in einer grösseren Bude / anderes Layout wohnen oder d) einfach eine Karte kaufen die zu mir und meinen Bedürfnissen passt.

Oder wirst du unter Todesdrohung zum Kauf der 900W Karte gezwungen ?

SoldierShredder schrieb:
Ist das Ironie? Sarkasmus? Was an dieser Entwicklung soll hier bitteschön positiv sein?! Der Trend muss glasklar Richtung WENIGER Stromverbrauch gehen, oder zumindest stagnieren. 33% mehr Aufnahme kanns aktuell wirklich nicht sein,
Dreisatz ist dir ein Begriff ? 33% mehr Verbrauch bei 100% mehr Leistung, macht die Karte 66% effizienter als den Vorgänger. Runtergebrochen auf die kleineren Modelle kriegst du dann bei einer 200W Karte das Äquivalent einer heutigen 300W Karte.

SoldierShredder schrieb:
da bin ich explizit raus!
Bleibt mehr für andere, auch gut.

SoldierShredder schrieb:
Wer braucht denn jetzt ernsthaft die doppelte Leistung zur letzten Gen?
Ich nehm das sehr gerne. Wusste nicht, dass du das entscheidest ?:D

Für mich täte es aber auch preislich eher eine 4080 (Ti?). Weit oben, aber nicht nochmal 100% drauflegen für 5% Mehrleistung am Ende. Muss ja alles noch finanziell Sinn ergeben.

SoldierShredder schrieb:
Ich will das Ganze mit weniger Abwärme und weniger Strom bei einem halbwegs humanen Preis!
Ich will auch einen 39k€ Huracan Spyder fahren. Mimimi.

Du bist näher an deinem Ziel als ich meinem, es wird ja Karten zu humanem Preis (nein, nicht geschenkt wie du dir vermutlich erwartest) und Verbrauch geben. Aber es wird halt keine Karte mit 100% Mehrleistung bei halbem Verbrauch geben. Wie denn auch ? Magie ?

SoldierShredder schrieb:
Dann lieber seriös das Ganze entwickeln und sehen, was man an Leistung rauskitzeln kann ohne bei der nächsten Strom-Jahresrechnung zu verarmen...
Verarmen ? Woran ? Geh und beschwer dich bei der Politik und verbiete nicht dem Rest der Welt sein Hobby nur weils die Deutschen wieder mal nicht im Griff haben.

Deutschland ist nicht der Nabel der Welt. Sollte langsam mal angekommen sein. Die Produkte werden nicht für einen Nebenmarkt mit 3% VK Anteil entwickelt. Der "verarmte" German-Gamer kann sich dann ja gerne eine 4060 holen oder eine 4050. Warum "braucht" der denn eine 900W Karte ?

Fühlen sich jetzt neuerdings alle hier entitled oder was ?😂 Passt irgendwie nicht so sehr zur Angst vor der Armut durch Strompreise.

theGucky schrieb:
Es gibt schon ein Problem, einen Powerlimiter zu nutzen, z.b. zahlt man für die Karte mehr als man nutzt :p
Dafür hat man die Option später wenn mans bei nem Spiel bräuchte mehr Saft geben zu können. Ist ja auch ok. :)

BobaFett schrieb:
Wenn das mit der Leistungsaufnahme so weiter geht braucht bald jeder Gamer oder professionelle Anwender ein eigenes Stromkraftwerk…
Du und "jeder Gamer" brauchen also eine 900W Karte ? Wofür ?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Shoryuken94 und Laphonso
ThePlayer schrieb:
Ich frage mich jetzt als Laie ob das nur die Daten für ein Chiplet sind. Aber dann wenn ich mir die 75 TFLOPS anschaue verstehe ich wieso Nvidia mit der Brechstange kommt. 100 TF bei Nvidia könnten 50-60 TF bei AMD entsprechen was ja ein enormer Vorsprung für AMD wäre. Die große Frage ist jetzt wie wird der Verbrauch bei RDNA 3 sein?
Was bei RTX 3000 vs RX 6000 gilt muss nicht für RTX 4000 vs RX 7000 gelten.

Die große Unbekannte ist wie sich die Architektur von RDNA3 auswirkt.
Bei Nvidia gibt es noch gar nichts zu hören. Wenn Nvidia beim monolithischen Design bleibt, dann gehe ich davon aus, daß sie ihre guten Gründe haben.

Greymon55 geht davon aus, daß RDNA3 weniger als Lovelace verbraucht. Aber wirklich untermauern kann er dies nicht.

Die Erfahrung zeigt, daß der Verbrauch relativ spät festgelegt wird. Mit dem neuen Stecker bekommt man 600 W in die Grafikkarten. Ob man sie tatsächlich braucht? Die Spannungswandler für diese Leistung im Platinenlayout vorzusehen heißt noch nicht sie auch zu bestücken.

Ich gehe davon aus, daß der Verbrauch im Vergleich zu den Vorgängern ansteigt. Aber wie viel es tatsächlich wird?

Da hilft nur abwarten und Tee trinken.
 
  • Gefällt mir
Reaktionen: schneeland und ThePlayer
Wir wissen eigentlich nur eins nach den ganzen Leaks die Karten reichen an frühere SLI und CF Leistungsaufnahmen heran !
Ich bin viel mehr gespannt auf die Raytracing Leistung bei AMD und ihr FSR wäre schön wen hier beide Hersteller gleich ziehn!
Wen die Leistung im Verhältnis zum Verbrauch steht dann ist es mir eigentlich egal wen die Karte bis zu 600W nimmt !
Es kommt halt auch drauf an was am Ende hinten rauskommt!
Es wird da bestimmt auch andere Verbrauchsklassen geben wen sich jemand daran stört !
Vielleicht gibt es ja dann 3090 Ti Leistung bei 250W z.b
Ich für meinen Teil hab die Leistung schon mit meiner 3080Ti .
Die Karte bekommt meine Tochter dann für ihren 60HZ 4K Bildschirm .
Da wird dann bei 57 FPS ein Cap gemacht und gut ist !
Papa bekommt dann neues Spielzeug!
Mit dem X3D hab ich ja schon einen Schritt in Richtung weniger Leistungs Aufnahme gemacht :daumen: da kann ich ja bissel großzügiger sein bei der Grafikkarte!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Laphonso und ThirdLife
Stefan51278 schrieb:
Man merkt, dass man nicht mehr zu den Jüngeren gehört, wenn diese drei Werte valide RAM-Größen für die ersten Grafikkarten im eigenen Rechner waren und jetzt gibt es das als Cache auf der GPU :D

Du Jungspund! :D
Ich hatte eine Graka mit 4 MB VRAM.
Die Festplatte hatte 128 MB... ;)


Was ein Wahnsinn mit der TDP. Erinnert an den Pentium 4.
 
  • Gefällt mir
Reaktionen: Stefan51278
600W+, have fun. Ich bleib bei der 1080, bis es fuer max(!) 300€ die doppelte Leistung bei gleichem Verbrauch (180W) gibt. Gute Spiele gibts seit Jahren eh nicht mehr, Zeit hab ich also.
 
  • Gefällt mir
Reaktionen: Gesualdo und Flare
@416c du könntest auch eine zukünftige 4060TI/ RX 7700 nehmen. Da hast du vermutlich mehr Leistung als mit deiner 1080 und dabei weniger oder in etwa gleichen Stromverbrauch. Muss ja kein High End sein...
 
  • Gefällt mir
Reaktionen: 416c
@416c naja 300€ ist eine gute persönliche Grenze, nur haben selbst die GTX970 oder GTX1070 anfänglich mehr gekostet. Aber ich denke ähnlich.
 
Ich sehe das ähnlich.

Für mich liegt der Sweet Spot bei ~200 +/- 30 Watt. All das in Relation zur vorangegangen Generation bzw. zur aktuell eingesetzter Grafikkarte - speziell in Bezug auf Performance pro Watt 👍
 
Mosed schrieb:
Du Jungspund! :D
Ich hatte eine Graka mit 4 MB VRAM.
Die Festplatte hatte 128 MB... ;)


Was ein Wahnsinn mit der TDP. Erinnert an den Pentium 4.

Auch Jungspund 😅 386er 4mb ram und oak vga mit 512kb (halber mb) aber wenn man das mit c64 davor vergleicht ist da einiges anders.
 
Die kommende GPUs werden nicht schneller als die aktuelle, weil jede verfügbare CPU wird limitieren, außer die werden nur für UHD mit höheren als 60 Hz Bildwiederholraten genutzt.
 
Das wird absolut unbezahlbar. Ich rechne mit Preisen, die 4000 für die Topmodelle überschreiten.
 
Rx7900 soll ab 2000€ den Besitzer wechseln.
 
416c schrieb:
600W+, have fun. Ich bleib bei der 1080, bis es fuer max(!) 300€ die doppelte Leistung bei gleichem Verbrauch (180W) gibt. Gute Spiele gibts seit Jahren eh nicht mehr, Zeit hab ich also.
Also war es ok, für die 1080 mit einem Launchpreis von 599$ Geld abzudrücken, aber jetzt solls die doppelte Performance auf einmal fürs halbe Geld geben ?

Joa, ich fahr dann auch mal Mazda MX5 für 30k€ und erwarte in zwei Jahren dann meinen Huracan vor der Tür für 15k€.

Punkt Nummer drei wäre dann die Frage, wenn es eh keine guten Spiele gibt und du mit der Leistung die du jetzt hast gut bedient bist, warum dann eine doppelt so schnelle Karte wollen ?

Blumentopf1989 schrieb:
Bei solchen Preisen sind selbst die 450 Watt der 3090(ti) nicht bezahlbar, von den 600 Watt aufwärts brauchen wir gar nicht sprechen.
Also ist die Karte für 2k€+ bezahlbar, aber die Stromkosten dann nicht mehr ? Vielleicht sollte man dann über sein Konsumverhalten, bzw. seine tatsächlich benötigte Hardware nochmal nachdenken.

Wenn ich jetzt mal von einer gemässigten 200W-Karte ausgehe, dann wäre der Mehrverbrauch 250W bei einer relativ hoch getriebenen 3090(Ti), gehen wir davon aus du zockst wirklich JEDEN Tag drei Stunden (was echt viel ist, das wäre jeder zweite Tag sechs Stunden oder alle drei Tage neun Stunden), wären das im Jahr Mehrkosten von 94,17 € bei 43 Cent Strompreis, bei meinen 14 Cent gar nur 30,66 €, respektive 25,8 Cent pro Tag bzw. 8,4 Cent pro Tag.

Daran scheitert es dann mit der 2.000-3.000€ Karte ? Alles klar. 😂:daumen:

MDomi09 schrieb:
Das wird absolut unbezahlbar. Ich rechne mit Preisen, die 4000 für die Topmodelle überschreiten.
Angenommen dem wäre so...du brauchst unbedingt die Topmodelle ?
 
Zuletzt bearbeitet:
Leistung einer 3080 mit 200watt für 500 Euro und ich bin dabei
 
  • Gefällt mir
Reaktionen: b|ank0r
spw schrieb:
OFFTOPIC !

Anlage selbst gekauft ? Ich habe vor 4 Jahren gebaut. Mit 41 Jahren. Die mindestens 19 000€ (Preis 2018) für eine wirklich sinnvolle Photovoltaik Anlage auf meinem grossflächigen Bungalow-Dach rentieren sich bei durchschnittlicher Lebenserwartung nicht wirklich für ein Niedrigstenergie-Haus. Wäre ich 20 und würde bauen - wer kann das schon noch heutzutage - dann ja.
OT

In der Schweiz gibt es eine Solarrechner vom Bund. Wenn ich die durchschnittliche Sonneneinstrahlung hier auf 1800müM einrechne, 100m2 Photovoltaik für Strom und Heizung auf der Hälfte vom Dach plane, die 8 Rp Einspeisungsvergütung rechne, kost die Anlage um die 36K CHF, mit 10KW Akku um die 47 K. Das Bundesland (Kanton) übernimmt 10% der Kosten.
Ohne Akku hat sich die Anlage in 12 Jahren amortisiert und mit Akku in 16 Jahren.

Und unser Stromtarif liegt hier momentan bei max 18 Rappen/kWh.
Das müsste sich bei den hohen Deutschen Stromtarifen doch sehr viel schneller rentieren?
Oder habt ihr soviel weniger Sonneneinstrahlung?

Bei 700m2 Nutzfläche brauchen wir im hochalpinen Tal momentan nur um die 3000 L Öl im Jahr.
Die Häuser müssen hier aber auch sehr gut isoliert sein.
 
ThirdLife schrieb:
Also war es ok, für die 1080 mit einem Launchpreis von 599$ Geld abzudrücken, aber jetzt solls die doppelte Performance auf einmal fürs halbe Geld geben ?
Da liegst aber sowas von falsch...
Allererste Auto hatte 30 PS und war so teuer wie ein Luxusjacht der Oligarchen, heißt also Porsche ist viel zu günstig oder ?
Also 2030 wird nach deiner Logik keine Graka unter 10000€ geben, oder ?

Was geht mich was ich pro Leistung vor 100 Jahren zahlte, die Produkte werden immer besser und oft günstiger.
Die Küchengeräte, TVs, Klimageräte &&& alles wird moderner um die Kundschaft zum einen Wechsel zu bewegen, manchmal werden das sogar sinnlose Änderungen, da man den Rad nicht neu erfinden kann.
Die CPUs werden dich auch immer leistungsfähiger und kosten meist je nach Klasse das gleiche wie die Vorgänger.
6700 vs 7700 oder 6900 vs 7900 sollen das gleiche kosten und wenn das nicht der Fall ist, hat nur mit Finanzmärkten, Fertigungsprozessen, Rohstoffe Preisen zu tun und nicht Leistung wegen.

Was die Leistungsaufnahme betrifft, da Teile uch sich nicht die Meinung, dass es immer mehr sein muss, Fortschritt sieht anders aus.
Hier sollen irgend Regelungen ähnlich wie in Autoindustrie greifen und wirst gleich Besserung sehen.
Wenn die 7900 600W am Bedarf haben wird, dann ust das ein Beweis, dass das nicht der richtige Zeitpunkt und unzureichende Produkt Reife war.
7700 mit Leistung der 6900 dafür aber 200W, die Karte hätte erst jetzt an Stelle der 6900 kommen sollen, genauso kommt bei übernächste Generation die kleinste Graka die so schnell wie die 7900 wird, bei Leistungsaufnahme von 300W.
 
Zuletzt bearbeitet:
Zurück
Oben