Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Nvidia Ada: Die GeForce RTX 4090 soll mit 2.520 MHz Boost takten
- Ersteller Wolfgang
- Erstellt am
- Zur News: Nvidia Ada: Die GeForce RTX 4090 soll mit 2.520 MHz Boost takten
Creeper777
Lieutenant
- Registriert
- Nov. 2007
- Beiträge
- 917
Ich denke auch, das ich damit meine Excel Tabellen besser und schneller bearbeiten kann. 😁Plasma81 schrieb:Also ich freu mich auf die 4090 (ti). Wird sicher einen ordentlichen Schub in meinem Anwendungsbereich geben.
Rockstar85
Admiral Pro
- Registriert
- Sep. 2004
- Beiträge
- 8.891
Erinnert mich an Thermi 2.0spezialprodukt schrieb:ich hab jetzt schon ein schlechtes gewissen, wenn das system bei games 600 watt aus der dose nuckelt
Ich bin echt gespannt, ob die tdp Rekorde gehalten werden. Angeblich soll AMD keine TDP Erhöhung bei der 7700XT haben. Das glaube ich aber auch erst, wenn ich es sehe. Eine 4060 mit annähernd 3090 Leistung ist aber schon nett
Und die 4070 muss auch minimum 12GB Vram haben. Eher 16.
Syrato
Rear Admiral
- Registriert
- Juni 2012
- Beiträge
- 5.856
Das kommt ganz auf die eigenen Wünsche an es gibt viele gute Spiele, ausser AAA 🙃.Creeper777 schrieb:Was hat die PC Branche an Spielen für uns zu bieten?
Cities Skylines, Timberborn, Ori and the Blind Forest, The Riftbreaker uvm. einfach mal bei z.B Steam stöbern, Bewerbungen über 90% und du findest 100% was für dich.
d3nso
Captain
- Registriert
- Nov. 2016
- Beiträge
- 3.353
Den stetig steigenen Verbauch anzusprechen finde ich legitim, wobei wenn man nicht dauerhaft 6h am Tag zockt sind die Mehrkosten bei 25-50€/Jahr. Dennoch unschön. Fast noch schlimmer finde ich durch den Verbrauch erhöhte Wärmeabgabe. Meine Radiatoren stehen zwar bei mir im Kniestock aber denn will ich auch nicht ganzjährig mit 600W+ heizen...
Das NV die 4070 wohl mit 10GB platzieren möchte she ich als Verkausstrategie an um die Kunden zur 4080 zu treiben. 2022 Kaufe ich keine Karte mehr unter 12GB VRAM für 1440p und höher.
Das NV die 4070 wohl mit 10GB platzieren möchte she ich als Verkausstrategie an um die Kunden zur 4080 zu treiben. 2022 Kaufe ich keine Karte mehr unter 12GB VRAM für 1440p und höher.
Bulletchief
Rear Admiral Pro
- Registriert
- Nov. 2011
- Beiträge
- 5.536
Das ist komplett subjektiv.Bullz schrieb:Ich weiß Glaskugel aber schatzt ihr es zählt sich aus Wechsel von 3080 10gb auf 4080 16 GB aus?
Ich würde sagen: niemals! Immer ein-zwei Generationen auslassen.
Wenn du jetzt aber meinst, dass das Geld dringend weg muss, dann wird dich genau niemand aufhalten.
Besser wirds natürlich werden.
mtheis1987
Lieutenant
- Registriert
- Nov. 2007
- Beiträge
- 896
Ich Spekuliere auf eine 4090, bin mir sich er dass eine 4090Ti erst wieder kurz vorm Start der 5xxx Serie kommen wird, also viel zu spät.
mtheis1987
Lieutenant
- Registriert
- Nov. 2007
- Beiträge
- 896
Bulletchief schrieb:Ich würde sagen: niemals! Immer ein-zwei Generationen auslassen.
Und warum den Restwert der aktuellen Generation noch weiter verfallen lassen anstatt diese zu verkaufen und für den Differenzbetrag die neue Generation zu holen? In ein bis zwei Generationen ist die aktuelle Generation fast nichts mehr wert, die UVPs werden aber weiter gestiegen sein, und ich muss wieder extra tief in die Tasche greifen.
Bright0001
Commander
- Registriert
- Juli 2011
- Beiträge
- 2.639
Die 4070 würde in 4K dann ja eine glatte Verdopplung in der Leistung bedeuten, und dabei hält sich die 3070 ja auch schon recht ordentlich.
Gehts diese Saison also doch noch mit dem GPU-Hype los, eine 4090 dürfte dann ja surreal schnell sein, und durchgängige 120FPS@4K erlauben.
Gehts diese Saison also doch noch mit dem GPU-Hype los, eine 4090 dürfte dann ja surreal schnell sein, und durchgängige 120FPS@4K erlauben.
oldsqlBeat
Banned
- Registriert
- Dez. 2016
- Beiträge
- 216
Die Frage ist, wer stellt seinen PC auf den Boden?!Kloin schrieb:Und wer kühlt dir dann die Klöten wenns im Raum 35° hat?
danyundsahne
Commodore
- Registriert
- Okt. 2007
- Beiträge
- 4.420
Ich finde es auch nicht gut, dass die Verbrauchsspirale der jeweilige Klassen langsam aber sicher von Gen zu Gen nach oben getrieben werden.
Wo soll das bitte enden in ein paar Jahren?
Wenn ich davon ausgehe, dass mein Gaming Rig in etwa so 200-300W, maximal vll so 300-350W verbrauchen soll damit es noch angenehm leise und kühl im Raum bleibt, dann bin ich quasi gezwungen auch bei grob der selben Leistung der GPU zu bleiben.
Ich muss also von Gen zu Gen von z.B. einer 2080ti auf eine 3070 auf eine 4060 "downgraden, damit ich einerseits neue Features erhalte, aber auf der anderen Seite nicht den Verbrauch sprenge.
Im Endeffekt hab ich dann selbe Leistung zu selben Verbrauch...aber dafür weniger VRAM, juhu!
Keine tolle Entwicklung...
Wo lande ich dann irgendwann? RTX5050? RTX6040 RTX7030? Und dazu bezhalt man am Ende auch noch mehr. Ganz tolle Leistung. Nicht.
Da sehe ich bei den CPUs eine andere/bessere Entwicklung. Zumindest bekomme ich wesentlich mehr Kerne/Leistung für grob den selben Verbrauch. Zumindest bei AMD unter Volllast. Intel fährt da seit Cometlake auch wieder eine etwas derbere Spur was maximal Verbrauch angeht.
Und dieses Gerede von wegen "wenn dir der Verbrauch zu hoch ist, dann kauf eine Klasse darunter" ist auch völlig daneben, ganz ehrlich.
Das kann nicht Sinn einer Weiterentwicklung sein. Nicht generell. Und schon gar nicht bei der aktuellen Versorgungslage....
Wo soll das bitte enden in ein paar Jahren?
Wenn ich davon ausgehe, dass mein Gaming Rig in etwa so 200-300W, maximal vll so 300-350W verbrauchen soll damit es noch angenehm leise und kühl im Raum bleibt, dann bin ich quasi gezwungen auch bei grob der selben Leistung der GPU zu bleiben.
Ich muss also von Gen zu Gen von z.B. einer 2080ti auf eine 3070 auf eine 4060 "downgraden, damit ich einerseits neue Features erhalte, aber auf der anderen Seite nicht den Verbrauch sprenge.
Im Endeffekt hab ich dann selbe Leistung zu selben Verbrauch...aber dafür weniger VRAM, juhu!
Keine tolle Entwicklung...
Wo lande ich dann irgendwann? RTX5050? RTX6040 RTX7030? Und dazu bezhalt man am Ende auch noch mehr. Ganz tolle Leistung. Nicht.
Da sehe ich bei den CPUs eine andere/bessere Entwicklung. Zumindest bekomme ich wesentlich mehr Kerne/Leistung für grob den selben Verbrauch. Zumindest bei AMD unter Volllast. Intel fährt da seit Cometlake auch wieder eine etwas derbere Spur was maximal Verbrauch angeht.
Und dieses Gerede von wegen "wenn dir der Verbrauch zu hoch ist, dann kauf eine Klasse darunter" ist auch völlig daneben, ganz ehrlich.
Das kann nicht Sinn einer Weiterentwicklung sein. Nicht generell. Und schon gar nicht bei der aktuellen Versorgungslage....
DaCrazyP
Ensign
- Registriert
- Dez. 2020
- Beiträge
- 159
Wenn es nach der Logik von manchen ginge, dann wohl schon. Diejenigen sollten dann mal die Leistung der ersten PCs und deren Preise umrechnen... 🤪Jack3ss schrieb:wenn die 4070 gleich schnell wie ne 3090ti ist, kostet sie auch gleich viel... sprich die 4090 ist dann um die 3000?
🤓
Ergänzung ()
Wenn die Berichte stimmen, dass Kontingente bei TSMC wieder gekündigt wurden, dann arbeiten die Hersteller schon schön an der schlechten Verfügbarkeit, damit man die Produkte ja nicht zu günstig verkaufen muss.ManPon schrieb:Hoffe, dass die Verfügbarkeit nicht so bescheiden ist wie bei der aktuellen Generation, glaube allerdings nicht dran. Zumindest das passende Netzteil habe ich mit dem Fractal Design Ion+ 2 Platinum 860W ATX 2.52 bereits ...
Ich bin mal gespannt.
Vielleicht wachen ja Kunden und Hersteller mal im Winter auf, wenn man die Energiepreise wirklich zu spüren bekommt. Eine Kuh lässt sich auch nicht unendlich melken.
Zuletzt bearbeitet:
Draco Nobilis
Banned
- Registriert
- Jan. 2012
- Beiträge
- 2.943
Wieso? Ist ein doppelter Full Node für NVIDIA. EDIT, glaube ist sogar noch mehr.elefant schrieb:Wenn die 4070 mit nur 300Watt die Leistung der aktuell 3090ti erzielen kann, Hut ab.
Samsung Prozesse kann man halt einfach nicht mit TSMC vergleichen.
Den Hut nehm ich erst ab wenn Sie ein deutlich besseres P/L haben wird.
Andernfalls sehe ich schwarz.
Sollten 10GB kommen wird meiner Meinung nach nichts diese Karte vor dem Shitstorm retten können.
Der Prozess Wärme in Bewegungsenergie umzuwandeln hat ein natürliches Limit bei ~63% Effizienzfloh668 schrieb:Ach du scheiße. Grade nachgeschaut und stimmt. Das die so mieß sind, hätte ich jetzt nicht gedacht. Das machts nicht besser. Wir sollten endlich in Speicher und PV/Wind investieren statt in Waffen.
https://studyflix.de/ingenieurwissenschaften/thermischer-wirkungsgrad-1203
450W 2x3090 halte ich für machbar, defintiv außerhalb meines Energiebudgets
@Creeper777
Um UHD 60 FPS oder FHD 120 FPS auf Mittel bis hoch Details wie die PS5 auszugeben brauch man aber bei weitem auch keine Nvidia 4xxx Karte, die Grafikleistung der PS5 entspricht ner 2070/2080 aus 2018.
Würde einem das als PC genügen, kann man sich das auch günstig zusammen bauen, aber das genügt halt nicht jedem.
Um UHD 60 FPS oder FHD 120 FPS auf Mittel bis hoch Details wie die PS5 auszugeben brauch man aber bei weitem auch keine Nvidia 4xxx Karte, die Grafikleistung der PS5 entspricht ner 2070/2080 aus 2018.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Zuletzt bearbeitet:
Ich habe vor bei der kommenden Generation meine RX 5700 XT auszutauschen, weil sie mir bei WQHD Auflösung doch ein kleines bisschen zu langsam ist. Wollte ich bereits bei jetzigen Generation machen, aber nicht zu den hohen Preisen. Momentan geht's ja zum Glück einigermaßen wieder.
Allerdings werde ich sehr genau hinsehen welche Karte ich nehmen, weil ich versuchen werde diese auf max. 250 Watt zu drosseln. Die RX 5700 XT zieht schon zwischen 200 und 250 Watt während den Games. Hab damals fast nen Herzinfarkt bekommen, als ich das gesehen habe. Man muss mal darüber nachdenken wieviel das ist!
Allerdings werde ich sehr genau hinsehen welche Karte ich nehmen, weil ich versuchen werde diese auf max. 250 Watt zu drosseln. Die RX 5700 XT zieht schon zwischen 200 und 250 Watt während den Games. Hab damals fast nen Herzinfarkt bekommen, als ich das gesehen habe. Man muss mal darüber nachdenken wieviel das ist!
Hast du es gut! Meine Katze ist viel zu faul für sowas.wern001 schrieb:Wenn das mit dem Stromverbrauch so weiter geht muss ich mein Hamsterkraftwerk ausbauen
Ähnliche Themen
- Antworten
- 519
- Aufrufe
- 43.351
- Antworten
- 22
- Aufrufe
- 1.583
- Antworten
- 225
- Aufrufe
- 19.344
- Antworten
- 65
- Aufrufe
- 10.870
- Antworten
- 291
- Aufrufe
- 29.458