News GPU-Gerüchte: RTX 4090 und RX 7900 sollen (fast) 100 TFLOPs erreichen

Firstdim schrieb:
Allererste Auto hatte 30 PS und war so teuer wie ein Luxusjacht der Oligarchen, heißt also Porsche ist viel zu günstig oder ?
Ehemaliger E34 meiner Mum 60k DM, heute kosten sechs Zylinder im 5er ab 68k oder so aufwärts bei BMW. Allerdings Euro. Fast keine Teuerung also seit 1996. Nur mehr als 125% Anstieg. :D

Wir reden im Übrigen ja auch nicht von der ersten Grafikkarte die es je gab. Die waren damals auch nicht direkt gratis.

Firstdim schrieb:
Also 2030 wird nach deiner Logik keine Graka unter 10000€ geben, oder ?
Wie kommst du da drauf ? Man muss nicht gleich übertreiben.

Sind noch acht Jahre, aber eine grundsätzliche Teuerung in dem Zeitraum wäre ja sowieso irgendwo zwischen 15 und 20% basierend auf Inflation der letzten zehn Jahre, wenn die Karten dazu immer noch mehr Speicher kriegen, immer noch komplexere Technik aufwarten, immer noch mehr Features bieten sollen wird es aber eine gewisse Verteuerung auch hier geben, wie überall.

Ein AMD 16 Core kostet auch mehr als ein Intel QuadCore von 2008. Müsste ja bei deiner "Logik" dann heute gratis sein oder ? Man kriegt ja schliesslich immer mehr für weniger.

Firstdim schrieb:
Was geht mich was ich pro Leistung vor 100 Jahren zahlte, die Produkte werden immer besser und oft günstiger.
Du bist derjenige der die neuen Produkte will aber nicht verstehen möchte, dass Fortschritt meist nicht gratis kommt. Darum zahlst du auch deutsche Strompreise heute. Man hat wohl auch da erwartet, dass sich das von selbst und gratis löst.

Die Produkte werden auch besser und günstiger. Eine RTX 3060 Ti heute ist schneller als eine 1080 Ti, zieht 200 W ggü. 300 W und bietet zusätzliche Features wie DLSS und RT und der nominelle Launchpreis lag bei 399$ und nicht 699 $.

Wir haben hier also eine neue Karte, die schneller ist, mehr Features bietet und obendrein noch 43% günstiger ist. Wo ist also das Problem ? Muss die Karte halb so teuer sein und dreimal so schnell ? Ist denn dein genannter Porsche heute dreimal so schnell wie einer von 2017 und halb so teuer ? Nein ? Geh zu Porsche und beklag dich auch direkt bitte.

Firstdim schrieb:
Die Küchengeräte, TVs, Klimageräte &&& alles wird moderner um die Kundschaft zum einen Wechsel zu bewegen, manchmal werden das sogar sinnlose Änderungen, da man den Rad nicht neu erfinden kann.
Und wo wurden GPUs jetzt genau nicht moderner ?

Firstdim schrieb:
Die CPUs werden dich auch immer leistungsfähiger und kosten meist je nach Klasse das gleiche wie die Vorgänger.
6700 vs 7700 oder 6900 vs 7900 sollen das gleiche kosten und wenn das nicht der Fall ist, hat nur mit Finanzmärkten, Fertigungsprozessen, Rohstoffe Preisen zu tun und nicht Leistung wegen.
Jo und der 5% Performancefortschritt bei Intel von 6700K zu 7700K war ja auch so Bombe, da kauft man gerne für den gleichen Preis ein neues Produkt während man das Alte mit Verlust abgibt (vgl. 3080 vs. 1080 Ti - gleich teurer Launchpreis, erstere 80%+ schneller im Schnitt).

Firstdim schrieb:
Was die Leistungsaufnahme betrifft, da Teile uch sich nicht die Meinung, dass es immer mehr sein muss, Fortschritt sieht anders aus.
Es ist ja auch nicht mehr geworden. Wie gesagt, 3060 oder 3060 Ti bieten above 1080 Ti Performance für über 40% weniger Kohle und über 33% weniger Verbrauch. Es gibt nach oben hin einfach mehr Leistung - wenn du die nicht brauchst musst du die ja nicht kaufen.

Firstdim schrieb:
Hier sollen irgend Regelungen ähnlich wie in Autoindustrie greifen und wirst gleich Besserung sehen.
Was für Regelungen ? Und wo hat das VW am Dieselgate gehindert oder andere Hersteller an ihren Tricksereien ? Willst also lieber verarscht werden wie in der Autoindustrie üblich ?

Firstdim schrieb:
Wenn die 7900 600W am Bedarf haben wird, dann ust das ein Beweis, dass das nicht der richtige Zeitpunkt und unzureichende Produkt Reife war.
Oder es zeigt ein Halo-Produkt auf, analog Supersportwagen. Die kann man kaufen - muss es aber nicht.
 
Zuletzt bearbeitet:
ETI1120 schrieb:
Was bei RTX 3000 vs RX 6000 gilt muss nicht für RTX 4000 vs RX 7000 gelten.

Die große Unbekannte ist wie sich die Architektur von RDNA3 auswirkt.
Bei Nvidia gibt es noch gar nichts zu hören. Wenn Nvidia beim monolithischen Design bleibt, dann gehe ich davon aus, daß sie ihre guten Gründe haben.

Die guten Gründe sind ganz einfach, NV kann keine GPUs aus Chiplets produzieren.
Dafür muss man so manchen Trick austüfteln.
 
ThirdLife schrieb:
Also war es ok, für die 1080 mit einem Launchpreis von 599$ Geld abzudrücken, aber jetzt solls die doppelte Performance auf einmal fürs halbe Geld geben ?

Joa, ich fahr dann auch mal Mazda MX5 für 30k€ und erwarte in zwei Jahren dann meinen Huracan vor der Tür für 15k€.
Mal eine ernst gemeinte Frage: Was sollen eigentlich die ganzen schiefen Autovergleiche bei Computerbase? Unter jedem Beitrag welcher sich um CPUs oder GPUs dreht werden wirklich hanebüchene Vergleiche gemacht, einer falscher als der andere.

Die Halbleiterindustrie hat eine Besonderheit, die so praktisch keine Industrie hat: Moores Law. Sprich, mit jeder neuen Generation bzw. Jedem neuen Prozess verbessert sich die Leistung der Chips deutlich, ohne dass es zwangsläufig zu großen Änderungen an der Architektur kommen muss. Wie passt das denn bitte ins Bild mit Autos? Gibt es dort ein ähnliches Phänomen, wohl kaum oder?
Oder um es mal konkret zu machen: die 1080 wurde vor fast genau 6 Jahren veröffentlicht. Das sind also beim Release von RTX 4000 drei Generationen Unterschied und ein völlig anderer, deutlich kleinerer und effizienterer Prozess.

Selbst eine 3050 ist aktuell kaum langsamer als die 1080 (14% laut Techpowerup), mit der nächsten Generation wird die Leistung der 1080 also absolute Einstiegsklasse sein, wer weiß ob nicht sogar die Phoenix-APUs einen großen Schritt machen und in diese Kategorie vorstoßen…

Wenn man sich diese Zahlen so anschaut kann ich beim besten Willen nicht nachvollziehen, wie man so polemisch und herablassend diskutieren kann, auch wenn der Kollege da eine absolut realistische Erwartungshaltung hat.
Wäre es nicht sogar ein Desaster, wenn eine GPU auf einem etwas verbesserten Level der 3050 300€ oder mehr kosten würde?
 
WRX-Oger schrieb:
In der Automobilbranche sollen die Fahrzeuge möglichst ohne Kraftstoff laufen, hier scheinen die Verbräuche egal zu sein, Strom kommt ja aus der Steckdose...
Umso gruseliger, wenn man daran denkt, dass der Umstieg von Intel Atom auf AMD Ryzen im Tesla Model 3 gute 30 Zykluskilometer gefressen hat...

ro///M3o schrieb:
Gibt es dann überhaupt noch eine Einstiegsklasse um "300€" (Einstieg! 😝 )
XBox Series S? :D
 
  • Gefällt mir
Reaktionen: ro///M3o
davon auszugehen, dass einige Recheneinheiten deaktiviert sind und der Vollausbau einer möglichen RTX 4090 Ti vorbehalten bleibt.
Was heißt da eigentlich "deaktiviert"?
Sind die Kerne drauf und funktionieren, werden aber bewusst nicht genutzt?
Um das gleiche Produkt dann noch mal als TI teurer zu verkaufen?
Wie deaktiviert man Kerne und ließe sich das nicht auch aushebeln?

Fände ich ganz schön frech, eigentlich eine TI zu kaufen, die ohne ersichtlichen Grund runtergestutzt wurde.
 
ThirdLife schrieb:
Also ist die Karte für 2k€+ bezahlbar, aber die Stromkosten dann nicht mehr ? Vielleicht sollte man dann über sein Konsumverhalten, bzw. seine tatsächlich benötigte Hardware nochmal nachdenken.

Wenn ich jetzt mal von einer gemässigten 200W-Karte ausgehe, dann wäre der Mehrverbrauch 250W bei einer relativ hoch getriebenen 3090(Ti), gehen wir davon aus du zockst wirklich JEDEN Tag drei Stunden (was echt viel ist, das wäre jeder zweite Tag sechs Stunden oder alle drei Tage neun Stunden), wären das im Jahr Mehrkosten von 94,17 € bei 43 Cent Strompreis, bei meinen 14 Cent gar nur 30,66 €, respektive 25,8 Cent pro Tag bzw. 8,4 Cent pro Tag.

Daran scheitert es dann mit der 2.000-3.000€ Karte ? Alles klar. 😂:daumen:
Wenn es danach geht benötigt man gar kein Gaming, man kann ja auch spazieren gehen, ist quasi kostenlos (Abnutzung der Schuhe zähl ich mal nicht). Und wenn man schon spielen muss könnte man auch weiterhin auf einem Monitor mit 1280x1024 spielen, was würde das nur alles sparen, man könnte Hardware von vor 6-8 Jahren nutzen.

3 Stunden am Tag ist für eine/n Gamer/in rein gar nichts, nebenher musst du auch den höheren Verbrauch im Idle und bei Videos etc. bedenken. Ich ging zudem eher von dem 600 Watt Modell aus. Und wer wirklich die 3090 für 2000€ und mehr gekauft hat dem ist der Verbrauch wahrscheinlich eh egal, das stimmt, wer sie vielleicht für "nur" 1500€ gekauft hat und einen guten Deal für die alte 2080ti gemacht hat sieht das vielleicht anders. Ich komme beim groben überschlagen auf mehrere Hundert Euro Mehrkosten, sofern ich mein PC Verhalten und das diverser Anderer ansetze.

Und diese "ich habe nur Kosten von 14 Cent" ja schön, mit Haus und Solarpanel ist eh alles egal, das tifft jedoch nach wie vor nur auf einen Bruchteil der Bevölkerung zu. Mehr als 50% wohnt in Mehrfamilienhäusern und haben gar nicht die Möglichkeit das zu nutzen und selbst die mit einem Haus haben nicht alle eine Solaranlage.
 
bin gespannt was real bei rum kommt, die Ampere Gerüchte damals waren ja auch utopisch. Ich mein die haben schon einen ordentlichen Sprung gemacht mit dieser Gen, deutlich mehr als von 1000er zu RTX2000er, allerdings auch mit ordentlich Verbrauch erkauft.
Der Verbrauch der 3090 ist für mich die Grenze, hat man ja auch im Gehäuse Test hier gelesen, dass sind Bereiche die überfordern die Kühlleistung der meisten Gehäuse, sagt alles...
 
  • Gefällt mir
Reaktionen: Firstdim
ThirdLife schrieb:
bist derjenige der die neuen Produkte will aber nicht verstehen möchte, dass Fortschritt meist nicht gratis kommt.
Du weißt aber, dass die Sachen kompliziert, komplexer werden, und trotzdem kostet die Herstellung immer weniger. Ich weiß was kosteten die Autos, die meine Firma produziert früher und was jetzt, es werden stetig die Kosten gesenkt auch, wenn meist auf Kosten der Werker.
3D Drucker, Roboter aller Art, Berechnungen per Software &&& das hat früher nicht gegeben, müsste alles per Hand.
Ja, um das zu erreichen hat man wiederum kosten, aber davon abgesehen, dass das einkalkuliert ist, kriegen gerade due größte Unternehmen immense Subventionen oder gar sind die Steuer befreit.

ThirdLife schrieb:
Es ist ja auch nicht mehr geworden. Wie gesagt, 3060 oder 3060 Ti bieten above 1080 Ti Performance für über 40% weniger Kohle und über 33% weniger Verbrauch.
Hast mich nicht verstanden, das meinte ich nicht.
Mir geht's darum, dass manche Produkte werden verfrüht auf'm Markt gebracht, um den Anschluss nicht zu verlieren, sprich Konkurrenz.
Die Erscheinung Modellen wie die 6900 als Beispiel war verfrüht und hätte es niemals geben sollen, man hatte einfach an die Stelle von 6900 erst die 7700 einführen mit gleiche Leistung und niedrigeren TDP.
Genauso die obere Modelle der neuen Gen sei es Nvidia oder AMD mit 7900 und angeblichen 600 W TDP, müssen nicht erscheinen, da in zwei Jahren bietet die nächste Generation wieder das gleiche mit mehr Leistung und haben wir eine Karte wie die 7900 dafür aber mit ein Bruchteil der Energiebedarf.
Jedes Jahr erscheinen die High-end Karten mit enormen Verbrauch und zwei Jahre später leistet die neue Generation bessere Leistung bei deutlich niedrigeren Konsum, dann warum nicht weiter forschen und erst bei annehmbaren Daten auf'm Markt bringen 🤷‍♂️
Ich weiß, da die Konkurrenz...deswegen sollen Regelungen der EU, wie zb bei Staubsauger war das der Fall.
 
FPS lässt sich ja auch limitieren. Wer sich eine 4080 kauft anstelle einer 4070 und auf 100 FPS limitiert, der spart so Watt, hat aber auch mehr Leistung übrig, wenn sie abgerufen werden soll, zb. wenn die Qualitätseinstellungen höher sein sollen.

Würdet ihr meiner Schlussfolgerung zustimmen wenn ich behaupte, der Wattverbrauch wird bei einer Generation durch die benötigte FPS und die Pixeldichte generiert. Demzufolge eine 4070 oder 4080 bei gleicher Anzahl FPS ziemlich die gleiche Anzahl Watt verbrauchen wird? Der Verbrauch bestimmt nicht ob die Grafikkarte eine 4070 oder eine 4080 oder 4090 ist, sondern das verwendete Display und die zu berechnende FPS.

Die Karten laufen ja nicht dauernd unter Vollast..

Was die Energiefrage angeht : Es gibt viele andere Ansätze a la Viktor Schauberger oder Tesla, mit der sich die Energiefrage wohl für die Zukunft lösen liesse. Aber ich nehme mal an, dass ist nicht im Sinne derer, die uns den Strom verkaufen.. Ich glaube da sind noch viele Dinge möglich, die weit über Windrädchen und Solarpanels hinweg reichen.
 
Zuletzt bearbeitet:
modena.ch schrieb:
Die guten Gründe sind ganz einfach, NV kann keine GPUs aus Chiplets produzieren.
Dafür muss man so manchen Trick austüfteln.
Dass sie es nicht machen heißt nicht dass sie es nicht können. Nvidia zu unterschätzen ist nicht klug.

Sie haben ein großes F&E-Budget. Prägen seit Jahren die Entwicklung bei den GPU wieso sollten sie nicht in diese Richtung forschen?

Außerdem liegt ein Großteil des erforderlichen Knowhow bei den Foundries oder Packaging Dienstleistern. Bei Apple ging das Ganze auch überraschend flott über die Bühne.
 

RTX 4090 und RX 7900 sollen (fast) 100 TFLOPs erreichen​

Das sind gute Neuigkeiten. Ich hoffe, dass AMD bei der Raytracingleistung ordentlich zulegt.
 
  • Gefällt mir
Reaktionen: Eidgenosse
Compute ist ja erstmal nicht gleich Gamingleistung, dennoch wird das schon auch für andere Programme interessant.

Zum gaming kann man hier leider noch nichts sagen. aber wird sicher spannend. Ich freu mich auf die Modelle beider Hersteller.
Ergänzung ()

nach dem moderieren der news hier noch eine anmerkung der Moderation:

Lasst bitte das ganze Offtopic und die krummen autovergleiche weg. bleibt bitte bei den GPUs. für alles andere haben wir separate forenbereiche. ich weis die sache polarisiert, aber man muss schon beim Thema bleiben. manche Kommentarfolgen hier lassen keinen schluss mehr auf das ursprüngliche thema zu.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tapion3388
Hoffen wir, dass die Karten endlich wieder normal erschwinglich sind. 800 Euro für eine 3070TI ist doch immer noch ziemlich heftig. 600 Euro VP für die 4070 fände ich angemessen.
 
Eidgenosse schrieb:
FPS lässt sich ja auch limitieren. Wer sich eine 4080 kauft anstelle einer 4070 und auf 100 FPS limitiert, der spart so Watt, hat aber auch mehr Leistung übrig, wenn sie abgerufen werden soll, zb. wenn die Qualitätseinstellungen höher sein sollen.
Oder einfach undervolten. Ich betreibe mein RTX 3080 mit 0,8v anstatt 1.1v bei 1800mhz und habe max. 240W Stromverbrauch anstatt 360W bei 100% GPU Auslastung. Alles stabil! :) Die 5 FPS weniger fallen nicht auf.
Das ist echt nicht normal dass die Karten weit über 400W verbrauchen, dann in Deutschland mit der teuersten Strom der Welt.
 
Gaspedal schrieb:
Oder einfach undervolten. Ich betreibe mein RTX 3080 mit 0,8v anstatt 1.1v bei 1800mhz und habe max. 240W Stromverbrauch anstatt 360W bei 100% GPU Auslastung. Alles stabil! :) Die 5 FPS weniger fallen nicht auf.
Das ist echt nicht normal dass die Karten weit über 400W verbrauchen, dann in Deutschland mit der teuersten Strom der Welt.
Das klingt sehr interessant. Ich muss zugeben, dass ich mich mit dem Thema "undervolting" noch nicht wirklich auseinandergesetzt habe.

Was ich nicht verstehe - warum wird das nicht schon von Werk aus gemacht, wenn der Verbrauch durch undervolting so drastisch reduziert werden kann? Wenn du deine FPS limitierst, müsst er doch schon von sich aus weniger Strom verbrauchen? Oder würdest du gar empfehlen zu undervolten und zusätzlich noch die FPS zu limitieren?
 
Zuletzt bearbeitet:
Eidgenosse schrieb:
Was ich nicht verstehe - warum wird das nicht schon von Werk aus gemacht, wenn der Verbrauch durch undervolting so drastisch reduziert werden kann?
Auch wenn es generell stimmt: Für die letzten fps steigt der Verbrauch jedoch erheblich.
Doch die Angabe von Gaspedal passt schlichtweg in Zahlenwerten so nicht. Du reduzierst nicht die Leistungsaufnahme um ~ 30 % und hast dann nur "5 fps" weniger.
Den 1:1 Vergleich würde ich gerne mal in Cyberpunk Psychosettings sehen mit 240 vs 360 Watt.

Wenn da "nur 5 fps" weniger rauskommen, sponsore ich Gaspedal ein Jahresabo Computerbase Pro :)
Edit: CPU Limits gelten nicht :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Alphanerd
ThirdLife schrieb:
Also war es ok, für die 1080 mit einem Launchpreis von 599$ Geld abzudrücken, aber jetzt solls die doppelte Performance auf einmal fürs halbe Geld geben ?
Ich hab keine 599$, sondern 300€ gezahlt und das ist einige Jahre her. Zum nächsten Wechsel zahle ich ebenfalls maximal 300€ und erwarte dabei nun mal die doppelte Leistung bei gleichem Verbrauch. Wenns nichts wird warte ich eben. Früher oder später klappt das auf jeden Fall und kein Spiel das mich interessiert ist aktuell unstemmbar.

Aber es werden auch wieder genug Leute für ein Leistungsplus von 20%, bei 2% gesteigerter Effizienz upgraden, weil: höher, schneller, weiter.
 
Wenn Karten um 130W bis 160W kommen, gebt mir gerne Bescheid...


Dann reden wir weiter ob die mit nur noch 1 oder doch schon 2 Lanes angebunden sind und ob der Speicher noch für Minesweeper in FullHD ausreicht oder langsamer angebunden ist als bei einer alten 8600... :rolleyes:

/etwas Ironie war enthalten^^
 
  • Gefällt mir
Reaktionen: oem111 und b|ank0r
Capthowdy schrieb:
Den Egomanen hier geht es eben nur um eines: sich selbst. Alle anderen jammern nur, sind neidisch, haben keine Kohle...such dir einfach eins der schwachsinnigen Argumente raus, gibt reichlich. Echte Argumente kommen da nicht. 🤷‍♂️
Es sind nun mal Luxusartikel. Jammerst du auch, weil du keinen Ferrari, keine Yacht und kein Haus am Strand hast?
Wenn dir das Produkt nicht zusagt, dann kauf es nicht, aber dieses Gejammer unter jeder News ist einfach nur noch nervig und führt effektiv zu gar nichts. Mal ganz davon abgesehen, dass es völlig egal ist, ob dir das Produkt zusagt oder nicht. Wenn es anderen zusagt, hat es seine Existenzberechtigung und du bist nicht der Mittelpunkt des Universums der zu bestimmen hat, wer was produzieren/kaufen darf.

AMD/Nvidia werden schon merken, dass ihre Produkte nicht gut ankommen, wenn sie nicht gekauft werden, aber mimimi unter jeder News im CB Forum bringt absolut gar nichts. Falls die Karten sich dennoch gut verkaufen sollten, dann stehst du nun mal mit deiner Meinung alleine da.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: KlaasKersting, Cohen, ThirdLife und eine weitere Person
ThirdLife schrieb:
Du und "jeder Gamer" brauchen also eine 900W Karte ? Wofür ?

Wie ich finde sehr konfrontative Antwort auf meine eindeutig überspitzte Darstellung der aktuellen Situation. Aber ich werde das mal ignorieren und trotzdem sachlich drauf antworten.

Zunächst einmal, sehr interessant, dass Du mich direkt in die Games Sparte gesteckt hast, wenn Du weder mich noch meine Anwendungsbereiche kennst. Vielleicht solltest du dann nicht gleich kategorisieren oder werten. Ja ich habe win Setup zuhause auf dem ich zocke, aber das ist schon 8 Jahre alt da ich soviel Leistung nicht brauche. Wenn ich jedoch am arbeiten bin und 3D Rendering in 4K mache oder selbst bei größeren Projekten in FullHD benötige ich durchaus einiges an Leistung.

So und unabhängig davon. Es geht mir nicht perse um die 900Watt Version. Sondern ich finde auch 600W für den Costumer Bereich ziemlich krass. Mir ist durchaus bewusst, dass die Effizienz bezogen auf die Leistung ansteigt. Doch ich finde die allgemeine Entwicklung der letzten Jahre ziemlich krass. Wenn man aktuell einen Topend Rechner kaufen will/benötigt, dann kommt man um ein 1000W+ Netzteil quasi gar nicht mehr rum. Ich hoffe daher sehr, dass dieser Trend so nicht einfach weiter geht, sondern neue Architekturen eventuell neue Maßstäbe setzten können. Denn so wie es gerade läuft ist es für unsere Umwelt durchaus bedenklich.

Das ist mein Take der aktuellen Situation. Deiner mag anders sein, dennoch solltest Du dich darin üben sachlich zu bleiben und nicht zu werten. Nichts desto trotz bin ich sehr gespannt auf die neuen Karten und hoffe, dass da was interessantes für mich bei ist. Und auch das die Preise dann hoffentlich annehmbar werden.

PS.: nein, das ist nicht off topic denn es geht mir um die aktuelle Marktentwicklung und die aktuellen Gerüchte.
 
Zurück
Oben