Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GPU-Gerüchte: GeForce RTX 4090, Radeon RX 7900 XT und Intel Battlemage
- Ersteller SVΞN
- Erstellt am
- Zur News: GPU-Gerüchte: GeForce RTX 4090, Radeon RX 7900 XT und Intel Battlemage
Rubyurek
Commander
- Registriert
- Sep. 2017
- Beiträge
- 2.571
Liefern ja. Die frage ist nur ob sie auch richtig funktionieren. Ich selbst bin Pro AMD und mein PC ist komplett AMD (Ryzen und RX 6900 XT). Merke aber ,dass die Treiber eher mist sind und für eine Spiele AMD GPUs problematisch sind.Vitali.Metzger schrieb:Und wie wir wissen, liefert AMD auch in letzter Zeit ab.
RAZORLIGHT
Lt. Commander
- Registriert
- Dez. 2012
- Beiträge
- 1.975
Endlich wieder spannende GPU Generationen!
Nur der Verbrauch stört mich.
Nur der Verbrauch stört mich.
Beteigeuze.
Lt. Commander
- Registriert
- Feb. 2017
- Beiträge
- 1.551
habe nvidia und amd verbaut und seit 2-3 jahren habe ich mit amd weniger probleme als mit nvidiaRubyurek schrieb:Liefern ja. Die frage ist nur ob sie auch richtig funktionieren. Ich selbst bin Pro AMD und mein PC ist komplett AMD (Ryzen und RX 6900 XT). Merke aber ,dass die Treiber eher mist sind und für eine Spiele AMD GPUs problematisch sind.
die zeit davor hätte die ich eher als ausgeglichen beschrieben was das angeht
Ich habe aber auch ein Gerücht gelesen, dass die 7700XT nur 8GB VRAM bekommen soll. Ich hoffe mal, das stimmt nicht. Die Leistung einer 6900XT und nur 8GB wäre ziemlich daneben. Insbesondere. wenn man daran denkt, dass die 6700XT schon 12 GB hat.QuerSiehsteMehr schrieb:Laut Gerüchten bei den Kollegen der PCGH soll die 7700XT die Leistung einer 6900XT haben bei deutlich geringerer Leistungsaufnahme. Letztendlich werden wir am Ende des Jahres mehr wissen.
Cunhell
DrSmugface
Cadet 2nd Year
- Registriert
- Nov. 2021
- Beiträge
- 29
Die größeren werden das auch man braucht halt dann einen Adaptermojitomay schrieb:Möglicherweise gibt es ja dann endlich einen Nachfolger für meine 5700xt.
Hoffentlich sind wenigstens die kleineren GPU-Modelle abwärtskompatibel zu den aktuelle verlauten Netzteilen.
Da möchte ich eigentlich ungern mehr investieren.
Nick.Bo
Lieutenant
- Registriert
- Apr. 2017
- Beiträge
- 632
@=dantE=
Was nützen einem 3 Player im Game wenn die Preise dennoch nur eine Richtung kennen?
Meine 1070 habe ich damals für knapp 380€ gekauft. Da wird ne 4070 locker das doppelte wenn nicht dreifache Kosten. Mal von Energiebedarf ganz abgesehen, mir wird aktuell nur noch schlecht bei dem ganzen Mist.
Was nützen einem 3 Player im Game wenn die Preise dennoch nur eine Richtung kennen?
Meine 1070 habe ich damals für knapp 380€ gekauft. Da wird ne 4070 locker das doppelte wenn nicht dreifache Kosten. Mal von Energiebedarf ganz abgesehen, mir wird aktuell nur noch schlecht bei dem ganzen Mist.
BjörnE schrieb:8GB waren schon bei der 2070/2080/Super, Super daneben.
Hört doch endlich mit dem Gejammer auf, ich nutze jetzt seit über 3 Jahren eine 2080 auf UWQHD und war noch nie im VRAM Limit, nicht mal im Ansatz. 8GB sind für 90% der User absolut ausreichend und werden es auch eine Weile bleiben.
johnieboy
Commodore
- Registriert
- Juni 2007
- Beiträge
- 4.469
Bin auf die Leistung (und Kinderkrankheiten) der AMD MCM Lösung gespannt.
Die nächste Generation könnte das erste mal seit Radeon 5870 Zeiten sein das ne rote GPU ihren Weg in meinen Rechner findet, insb. wenn sich die Gerüchte zur Leistungsaufnahme bei Lovelace bewahrheiten.
Was ich von Intel halten soll weiß ich nicht. Ich habe so ein Gefühl das Raja da grade einen VEGA 2.0 fabriziert.
Andauernde Verzögerungen und wenn es dann irgendwann auf den Markt kommen wird dann muss man sich mit ner übermächtigen Konkurenz messen.
Die Intel Desktop GPUs müssten jetzt auf den Markt kommen und nicht in Q3 um Relevant zu werden.
Die nächste Generation könnte das erste mal seit Radeon 5870 Zeiten sein das ne rote GPU ihren Weg in meinen Rechner findet, insb. wenn sich die Gerüchte zur Leistungsaufnahme bei Lovelace bewahrheiten.
Was ich von Intel halten soll weiß ich nicht. Ich habe so ein Gefühl das Raja da grade einen VEGA 2.0 fabriziert.
Andauernde Verzögerungen und wenn es dann irgendwann auf den Markt kommen wird dann muss man sich mit ner übermächtigen Konkurenz messen.
Die Intel Desktop GPUs müssten jetzt auf den Markt kommen und nicht in Q3 um Relevant zu werden.
Rubyurek
Commander
- Registriert
- Sep. 2017
- Beiträge
- 2.571
Also ich hatte vor meiner rx 6900xt eine rx 5700xt. Die 5700 hat übelst rumgezickt bei Spielen und es kam vermehrt zu fehlermeldungen auf. Somit musste ich die Verkaufen und für 1500€ die RX6900XT kaufen. War halt zu dem Zeitpkt das günstigste und Nvidia war um die 2k oder 3k€ mit ihren GPUs. Würde mir mehr wünschen, dass beide Hersteller mehr auf Optimierung und Energieeffizienz gehen anstatt nur Rohpower reinzuballern.Beteigeuze. schrieb:habe nvidia und amd verbaut und seit 2-3 jahren habe ich mit amd weniger probleme als mit nvidia
die zeit davor hätte die ich eher als ausgeglichen beschrieben was das angeht
Ryzen 7000 alias Raphael wird ohnehin immer eine kleine GPU mit 256 Shadern haben und somit im Grunde eine APU sein.Makso schrieb:theoretisch können die dann einen Zen4 CPU + a mini GPU Chiplet zaumkleben.
https://www.computerbase.de/news/prozessoren/amd-ryzen-7000-zen-4-rdna-2.79800/
Drakrochma
Lt. Commander
- Registriert
- Dez. 2018
- Beiträge
- 1.239
Hmm, das klingt alles interessant.
Teils für mich, teils für den Stromversorger...
Ich sag Mal so, wenn es ein Leistungsupgrade von mindestens 15% ist gegenüber der 6900xt und der Verbrauch nicht über 450W liegt und der Preis nicht total abgedreht ist, könnte was interessantes dabei sein.
Hoffentlich gibt es bald belastbare Informationen und nicht nur Gerüchte aus dem Gemüsegarten...
Teils für mich, teils für den Stromversorger...
Ich sag Mal so, wenn es ein Leistungsupgrade von mindestens 15% ist gegenüber der 6900xt und der Verbrauch nicht über 450W liegt und der Preis nicht total abgedreht ist, könnte was interessantes dabei sein.
Hoffentlich gibt es bald belastbare Informationen und nicht nur Gerüchte aus dem Gemüsegarten...
Atma
Lieutenant
- Registriert
- Mai 2004
- Beiträge
- 903
Bekommst du doch heute schon. Untervolte die 3090 - z.B. 1,8 GHz bei 0,850v und du bist je nach Spiel im Bereich von 250-300 Watt. Das ganze sogar mit 24 statt 16 GB VRAM.Tyr43l schrieb:Die Leistung einer 3090+ mit max. 300 Watt und mindestens 16GB VRAM könnten mich schwach machen.
BjörnE
Banned
- Registriert
- Apr. 2022
- Beiträge
- 89
Es geht darum das zu dem heftigen aufpreisen nicht mal mehr vram gibt. Wer nichtmal das versteht….hahaqp schrieb:Hört doch endlich mit dem Gejammer auf, ich nutze jetzt seit über 3 Jahren eine 2080 auf UWQHD und war noch nie im VRAM Limit, nicht mal im Ansatz. 8GB sind für 90% der User absolut ausreichend und werden es auch eine Weile bleiben.
Thepunisher2403
Banned
- Registriert
- Jan. 2022
- Beiträge
- 194
Das geht aber eben nicht bei jeder 3090...Atma schrieb:Bekommst du doch heute schon. Untervolte die 3090 - z.B. 1,8 GHz bei 0,850v und du bist je nach Spiel im Bereich von 250-300 Watt. Das ganze sogar mit 24 statt 16 GB VRAM.
Wenn man ein gutes Modell erwischt dann ja ansonsten kannst du das vergessen....
Wieso verallgemeinern das dann die meisten
Ich sag doch auch nicht das alle 3090er mindestens auf 2,1ghz bis 2,2ghz laufen nur weil meine das kann....
Im übrigen braucht man in manchen Spielen die volle Power der 3090 für 4k ultra mit 60
Far cry 6, shadow of tomb raider etc....
SaschaHa
Commodore
- Registriert
- Nov. 2007
- Beiträge
- 4.890
Das ist kein Gejammer, sondern Fortschrittsbewusstsein. Bei den Leistungsregionen, in denen wir uns mittlerweile bewegen, sind 8 GB einfach zu wenig, zumal mit der Unreal Engine 5 jetzt auch die nächste Generation der Spiele-Grafik eingeleitet wird. Die 8 GB mögen für dich aktuell noch genug sein, für viele sind aber bereits die 10 GB der RTX 3080 zu wenig. Auch Ray Tracing frisst VRAM, was die Anforderungen in Zukunft auch nochmal erhöht.hahaqp schrieb:Hört doch endlich mit dem Gejammer auf, ich nutze jetzt seit über 3 Jahren eine 2080 auf UWQHD und war noch nie im VRAM Limit, nicht mal im Ansatz. 8GB sind für 90% der User absolut ausreichend und werden es auch eine Weile bleiben.
Ähnliche Themen
- Antworten
- 1.130
- Aufrufe
- 169.705
- Antworten
- 3.747
- Aufrufe
- 347.352
- Antworten
- 644
- Aufrufe
- 90.580
- Antworten
- 3
- Aufrufe
- 2.544
- Antworten
- 275
- Aufrufe
- 46.705