News GPU-Gerüchte: GeForce RTX 4090, Radeon RX 7900 XT und Intel Battlemage

KurzGedacht schrieb:
Hast du dafür Beispiele? Ich hab eher Eindruck gehabt dass viele Spiele Buggy as hell auf den Markt kommen. Zumindest hatte ich mit der 3070 jetzt nicht weniger Probleme als mit der 6900xt
Elden Ring als Beispiel bin ich mit dem stuttering betroffen. Größtenteils AMD Problem so wie ich das aufgenommen habe. FFXIV zickt auch rum bei AMD hingegen Nvidia nicht.
Ergänzung ()

whesker schrieb:
Ich bereue das ich eine RTX 3090 damals gekauft habe, meine alte 1080ti ohne Anti-Aliasing hat mir vollkommen gereicht.
Ich muss gestehen ich vermisse die GTX Reihe. Mit RTX kann ich ehrlich gesagt nicht viel abgewinnen und Leistungsfresser sind die auch noch. Wäre mal geil GTX 3000 Series kriegen zu können.
 
Wann kommt die 4000er?
 
Kann zwar mit meiner 6900XT Fast alles auf UHD Zocken, aber RTX Läuft nur Richtig mit DXR
Mit dem Nvidia RTX Fast keine Chance.. Hoffe die neue 7000er Macht da was drauf.

Würde nur umsteigen wenn die RTX Leisung ziemlich Stark angehoben wird. Und natürlich muss die Grundleistung über 30% Sein.

Mal sehen was kommt, da Wasserkühlungssystem drinne für die GPU, Müsste die neue auch gleich umgebaut werden, Wird Teuer.. ne Ref OVP bekommt man bei der 7000er bestimmt wieder schlecht bis garnicht.

Nvidia kommt derzeit nicht in Frage, da AMD Abliefert, und der Treiber auch unübertroffen ist gegen den Nvidia Treiber.
 
maximus_hertus schrieb:
1080p: Navi 33 (kolpotiert 7700XT)

Die wie vielte "perfekte Full HD Karte" wäre das dann?

Da braucht mir kein Hersteller mehr damit kommen.
"Perfekt für Full HD"

Die Zeiten sind vorbei.

Da gibt es massig Auswahl.
 
  • Gefällt mir
Reaktionen: ComputerJunge
Wäre schon traurig wenn im Jahr 2022 eine 500 Euro Karte die perfekte FHD Karte darstellen soll. Vielleicht sollte man besser bei den schrottigen Games ansetzen was den Leistungsbedarf angeht.
 
  • Gefällt mir
Reaktionen: ComputerJunge
Rubyurek schrieb:
Elden Ring als Beispiel bin ich mit dem stuttering betroffen. Größtenteils AMD Problem so wie ich das aufgenommen habe.
Bei Elden Ring machst es denke ich keinen großen Unterschied ob eine grüne oder rote Karte im Rechner steckt, dass Spiel ist zum Teil einfach schlampig programmiert.
 
cypeak schrieb:
die jetzige 6700xt hat 12gb bei einem uvp von 480€ - ich kann mir beim besten willen nicht vorstellen dass amd hier ende 2022/anfang 2023 noch auch 8gb vram setzt...nicht zu dem angestrebten preis!!

Ich kann mir das nur unter einer Bedingung vorstellen. AMD s Infinity Cache wächst ordentlich und kompensiert den kleineren RAM...
Wenn wir vom Maximal Ausbau ausgehen hat die 7700 nur einen Baustein MC - was aber noch immer 256MB Cache wären...
Aber ganz ehrlich bei so ner Brot und Butter GPU würde ich 12 GB oder den Boardpartnern bis 16GB Bestückung erlauben... (Dann müsste halt die Schnittstelle mitspielen und entsprechend ausgestattete sein).
Bedenke bitte eines, die Idee mit den 8GB hat aus Sicht AMDs mehrere Vorteile. Schnittstelle mit nur 64 oder 128 Bit - einsparen eines RAM Bausteinen (was auch in der Board TDP 20 - 30 Watt ausmachen kann!)
Also so kann man die Herstellungskosten drucken als auch an der Effizienzschraube. Schließlich war das Jahrelang NVs Vorteil. Denn schon in den Jahren wo NV angeblich so effizienter war - wäre mit Gleichstand beim RAM gar kein so großer Unterschied mehr gewesen..
 
danyundsahne schrieb:
Das was bisher in den Gerüchte kusriert, macht meiner Meinung nach noch am meisten sinn:

Navi31 = RX7900(XT) = 256 Bit = 16GB Standard (32GB evtl für ein Halo Produkt)
Navi32 = RX7800(XT) = 192 Bit = 12GB
Navi33 = RX7700(XT) = 128 Bit = 8GB
Kann mir nicht vorstellen dass die 7800 nur mit 192 Bit und 12GB kommt das wäre ja ein Schritt zurück. Die wird wieder 256Bit und 16GB haben. So wie 6900 und 7900. 16 GB werden 22 und 23 und bestimmt auch noch in 2024 genug VRAM sein.
 
danyundsahne schrieb:
Das wird, bzw ist schon ein Fest für jeden Konsumenten
Das man mit entsprechenden Höchstpreisen und wohl geringer Verfügbarkeit bezahlen muss
 
Rubyurek schrieb:
Elden Ring als Beispiel bin ich mit dem stuttering betroffen. Größtenteils AMD
Rubyurek schrieb:
so wie ich das aufgenommen habe. FFXIV zickt auch rum bei AMD hingegen Nvidia nicht.
Finde ich witzig... Klar ist AMDs Schuld... Witzig ist das alle Seiten die ich mir die letzten 3 Minuten dazu angesehen habe nur für NV spezifische Lösungen anbieten (jede Menge allgemein gültige gibt es auch)
Und ein Patch... Vom Entwickler...
Also a) es ist ein allgemeines Problem dieses Spieles/Engine b) NV ist genauso wenn nicht sogar stärker von betroffen...
Also c) bitte höre auf anderes zu behaupten.

https://www.digitaltrends.com/computing/elden-ring-new-patch-stuttering-how-to-fix/

Das einzige AMD spezifische was ich gefunden habe
https://community.amd.com/t5/general-discussions/elden-ring-stuttering-on-a-6900xt
/m-p/516114#M34912

Und hey NV ist auch betroffen... Wir müssen auf Patches warten und eventuell Treiber...

Und zu Final Fantasy - das scheint ein DX Problem zu sein. Und zwar zwischen der Engin und dem DX Stack selbst. Das Game läuft auf AMD wohl ohne Problem wenn du den Renderer auf Vulkan umbiegst... (Mal so als Workaround) - ach ja mehr FPS gibt's in Top bei der Lösung...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: eXe777
Als völliger Grafikkarte Außenseiter (nutze AMD Athlon 3000G mit 35W TDP) frage ich mich, ob das glorreiche Ziel denn nicht war, sparsamer zu sein im Verbrauch von allem möglichen, darunter auch Strom?

Ich mein ja in den 90ern gabs vielleicht riesige Rechner, die Strom gefuttert haben wie sonst was. Meine Vorstellung damals von der heutigen Zeit war, dass PCs Strom verbrauchen werden wie eine kleine LED Lampe und dabei dennoch einen vernünftigen Betrieb erlauben werden.

Nun lese ich überall 300W hier, 600W dort, 900W da, 1500W Netzteile?! ...gehts noch? Und für was?

Ich will hier KEINE moralische Waagschale aufbauen was mehr wert ist oder was verwerflich ist aber die absolut meiste Leistung heutiger privater Hardware geht doch fürs Zocken von AAA Games und Cryptomining drauf.

Wenn ich mir heutige Raspberry Pis u.Ä. anschaue, SO habe ich mir die Zukunft eigentlich vorgestellt. Zigarettenschachtelgroße Quad Core Computer mit 4GB RAM, welche jedoch idle kaum 7W verbrauchen. Ich stelle mir ein Büro vor mit zig Arbeitsplätzen. Alle zusammen verbrauchen nur einen Bruchteil von dem, was ein einziger Rechner vor 20 Jahren verbraucht hätte bei vielfacher Leistung.

Aber obere dreistellige Wattbereiche für Fortnite oder wie die alle heißen. Uff...
 
  • Gefällt mir
Reaktionen: Känguru
Harsiesis schrieb:
Solange ich kein Tool zur Hand habe mit dem ich die GPU in den tiefsten Powerstate zwingen kann und automatisch bei Spielen hoch Taktet, werde ich keine AMD im System haben.

Danke MultiDisplayPowerSaver
Der Verbrauch bei Multidisplay ist bei AMD genauso hoch wie bei Nvidia.
Die nehmen sich nix bzw. Nur 1-2 Watt und das bei den dicksten Karten. Die kleineren sind genauso gut.
Ich kann dir empfehlen, dass du dir den Test zur 3090ti ankuckst da siehst du das.
Zudem wirst du sehen, dass der Verbrauch bei AMD im idle und bei YouTube besser oder gleich ist. Und bei HDR um weiten besser.
 
Inxession schrieb:
Die wie vielte "perfekte Full HD Karte" wäre das dann?
Die Zeiten sind vorbei.

  • 1080p ist immer noch die deutlich am häufigsten genutzte Auflösung (weltweit).
  • Die Anforderungen an GPU Leistung steigen. Eine 6600 XT kann zB kein schnelles RT (in 1080p). Und für die 6600er wird es eher schlimmer als besser.
  • Unreal Engine 5. Die wird schon für einen Sprung in den Anforderungen sorgen.
  • Nicht jeder will 600+ Euro für eine Grafikkarte ausgeben. Die 400-450 Euro Klasse ist das, was bis vor 2-3 Jahren die 250-300 Euro Klasse war.

„Früher“:
1080p 60er Karte rund 300 Euro
1440p 70er Karte rund 450-500 Euro
4K 80er Karte rund 700+ Euro

Neue Realität:
1080p 60er rund 400-450 Euro
1440p 70er rund 600-700 Euro
4K 80er rund 1000+ Euro

Es kann sein, dass die neuen Karten statt 60,70,80 dann 70, 80 und 90 heißen. Aber Namen sind Schall und Rauch.

Warten wir doch die Tests ab, bevor man Produkte zereißt oder in den Himmel lobt. Wolfgang und das CB Team werden uns in gewohnter Qualität alles wichtige zu den Karten zeigen.
 
  • Gefällt mir
Reaktionen: Viper816 und Windell
Novasun schrieb:
Ich kann mir das nur unter einer Bedingung vorstellen. AMD s Infinity Cache wächst ordentlich und kompensiert den kleineren RAM...
Du kannst mit dem Cache nur die Bandbreite zum VRAM kaschieren nicht die Menge des VRAM.

Cunhell
 
  • Gefällt mir
Reaktionen: Colindo und McLovin14
Vitali.Metzger schrieb:
Bei Elden Ring machst es denke ich keinen großen Unterschied ob eine grüne oder rote Karte im Rechner steckt, dass Spiel ist zum Teil einfach schlampig programmiert.
Ich habe keine Mikroruckler oder Stuttering. Bei mir ist das Spiel absolut smooth.
 
  • Gefällt mir
Reaktionen: Cadilac
Nick.Bo schrieb:
Was nützen einem 3 Player im Game wenn die Preise dennoch nur eine Richtung kennen?
Ob sich durch den 3. Player die Marktlage, und damit auch die Preise entspannen, bleibt natürlich abzuwarten.
Jedoch wird der Effekt eher positiv als negativ ausfallen. Mehr Karten auf dem Markt werden das Angebot wohl eher nicht verknappen. Daher der Optimismus.

(Obwohl hierfür natürlich mehr Ressourcen erforderlich werden die im Zulieferer Markt für mehr Verknappung sorgen kann)

Ist nur meine Ansicht.

Gruß,
=dantE=
 
  • Gefällt mir
Reaktionen: Nick.Bo
cmi777 schrieb:
Dann bin ich mal irgendwann auf eine PS5 Pro gespannt. Für mich persönlich ist der PC-Markt auf absehbare Zeit vollkommen auf dem Holzweg. 1000 oder zumindest 800 Watt Netzteile sind mittlerweile ein Muss (GPU+CPU genehmigen sich immer mehr) und wie CB im 3090ti-Test auch schon geschrieben hat - das muss ja auch gekühlt werden.

Es gibt doch nicht nur die high end Karten?
 
@=dantE=

Da hast du natürlich recht. Trotzdem bin ich mittlerweile an einem Punkt wo ich ernsthaft darüber nachdenke was mir dieses Hobby noch wert ist. Ich war schon immer von HighEnd Hardware begeistert und würde gerne mal Top-Model kaufen wie eine 3090 etc. aber mir ist es schlicht zu viel Geld.

Ich verdiene gut und ja es ist ein Hobby, da kennt man natürlich erstmal keine Grenzen. Nur wenn es so weitergeht werde ich selbst von einer 2080/3080 usw. auf die kleineren Modelle umsteigen.

Aber dennoch finde ich die Entwicklung der letzten Jahre mehr als bedenklich, hab es auch schon mehrfach im Forum geschrieben und sicherlich nerve ich den einen oder anderen damit nur ich kann’s nicht verstehen wie so viele dieser doch grenzenlos überteuerten GPU‘s verkauft werden. Mir fehlt schlicht und einfach das Verständnis dafür.

Und da nehme ich die Enthusiasten mal komplett raus. Dieser Schlag Mensch hat mir schon immer imponiert, ich finde es Crazy aber ich freue mich mit diesen Leuten. ☺️
 
  • Gefällt mir
Reaktionen: Viper816 und =dantE=
Atma schrieb:
1,8 GHz bei 0,850v schafft fast jeder GA102. Wenn 0,850v nicht reichen, geht man eben auf 0,865v hoch. Das ist dann absolut Safe und ob 0,850 oder 0,865v macht am Ende bei der Leistungsaufnahme nicht wirklich einen Unterschied.
Nicht in Metro Exodus ;)
 
  • Gefällt mir
Reaktionen: chilchiubito
Novasun schrieb:
Wenn wir vom Maximal Ausbau ausgehen hat die 7700 nur einen Baustein MC - was aber noch immer 256MB Cache wären...
ist ein mcd nicht mit 128mb ausgestattet, so dass die größte ausbaustufe mit 4 mcd's auf 512mb kommt?

Novasun schrieb:
Bedenke bitte eines, die Idee mit den 8GB hat aus Sicht AMDs mehrere Vorteile. Schnittstelle mit nur 64 oder 128 Bit - einsparen eines RAM Bausteinen (was auch in der Board TDP 20 - 30 Watt ausmachen kann!)
das klingt ehe rnach einer 7600xt als nach einer 7700xt...
 
Zurück
Oben