News Fortschritte bei Raytracing und AI: AMD bestätigt Radeon RX 8000 für Anfang 2025

Emerald Flint schrieb:
Nur 64 Compute Units ist schon ein bissl mager für eine neue 8800XT, selbst die olle 6800XT hatte ja schon mehr. 🙁
Selbst die alte Vega 64 hatte schon 64 Compute Units, sieht richtig schlecht aus für die 8800XT :freak:
 
  • Gefällt mir
Reaktionen: fox40phil, paganini, bad_sign und eine weitere Person
Mit Performance auf 7900XT Niveau , sollte das Ding höchstens 499€ kosten, sonst tritt man auf der Stelle
Als Upgrade zur 6800XT/7800XT, aber nicht Sinnvoll
 
8800XT für 499€ wäre schon fein. Aber wird sicherlich etwas teurer. Neben der Leistung sollte auch der Stromverbrauch passen.
 
Isolak schrieb:
Das würde ich so nicht sagen bei AMD ist eher das Problem liegt an ROCM und das ist tatsächlich Linux vorbehalten.
Man hat ja HIP bereits ausgekoppelt und unter Windows verfügbar gemacht hoffe das was nur der erste Schritt.
 
  • Gefällt mir
Reaktionen: fox40phil, Phobsen, cruscz und 2 andere
Intel für Low-End, AMD für die Mittelklasse und Nvidia für High-End. Scheint jeder seine Lücke gefunden zu haben :D.
 
  • Gefällt mir
Reaktionen: fox40phil, paganini, TheHille und eine weitere Person
gartenriese schrieb:
Hoffentlich schließt AMD dann bei Raytracing mit Nvidia und Intel auf. Dann hören damit hoffentlich die ganzen "Raytracing ist unwichtig"-Kommentare auf.
Hast du die News nicht mal gelesen?
"Darüber hinaus bestätigt Lisa Su zwei offene Geheimnisse: AMD will mit der neuen GPU-Architektur insbesondere im Bereich Raytracing und bei den KI-Fähigkeiten deutliche Fortschritte machen und damit ein Stück weit zu Nvidia aufholen."
Ergänzung ()

cbmik schrieb:
lol, dieses Klischee wird AMD wohl nie los
Und dass wo es inzwischen umgekehrt ist :daumen: .
 
  • Gefällt mir
Reaktionen: cruscz
Lohnt sich immer noch nicht von meiner 6900XT upzugraden.
Spiele in WQHD und alle Singleplayer Spiele reichen easy aus bei 60-100fps (was locker erreicht wird) und bei Multiplayer werden auch immer locker 120-500fps erreicht...
 
Vitche schrieb:
Böse Zungen würden behaupten, dass die Zielgruppe und die Nachfrage derart groß sind, dass Nvidia eben solche Mittelklasse-Grafikkarten erfolgreich mit Oberklasse-Preisen verkaufen kann.
Der Post des Tages ! 👍
Sollte man zum Sticky für zukünftige Mittelklasse-GPU Themen machen.
Dann kann der Thread hier ja eigentlich zu. :daumen:
 
Erst gestern hat es mich in den Fingern gejuckt, eine 7900XTX zu kaufen. Aber jetzt, jetzt werde ich abwarten und schauen wie sich die Preise entwickeln.
 
  • Gefällt mir
Reaktionen: Mysterion
Krik schrieb:
So einen Chip entwickelt man nicht mal eben. Der RDNA4 ist sicher schon seit 3-4 Jahren in der Mache.
Und? Hab doch nichts gegenteiliges behauptet. Navi und mit RDNA1 eine neue Architektur hatte man ja innerhalb von 2 Jahren nach Vega vorgestellt, und damals hatte man viel weniger Ressourcen.
Krik schrieb:
Da ist man jetzt schon.
Aha. Wenn 12% Marktanteil also bedeutungslos sind, was ist dann Intel Arc?
 
Also RTX 3070-Leistung für 200 Talerchen wäre super.
 
  • Gefällt mir
Reaktionen: Ja_Ge
Emerald Flint schrieb:
Nur 64 Compute Units ist schon ein bissl mager für eine neue 8800XT, selbst die olle 6800XT hatte ja schon mehr. 🙁
Das deutet eher darauf hin, dass die neuen CUs viel mächtiger geworden sind.
 
  • Gefällt mir
Reaktionen: fox40phil, Nihil Baxxter und Perdakles
Sieht schon wieder nach einer Nullrunde aus was die Leistung angeht.
6800XT = 7800XT= 8800XT
Bevor ich mir nocheinmal eine AMD Graka kaufe muss FSR = DLSS sein.
KI gedöns und RT spielt dagegen keine Rolle.
 
zittrig schrieb:
Wenn die schnellste Karte der 8000er die Leistung (m)einer 7900XTX bringt bei >20% weniger Stromhunger, werden ich vmtl. wechseln. .... und die hoffentlich vorhanden Fortschritte bei RT mitnehmen, welche auch bei geringerer Rohleistung Vorteile in Sachen FPS bei manchen Games bringen können.

Soll kein Angriff gegen dich Persönlich sein aber ich lese immer häufiger wie viele in dem Board so denken.
Kannst du mir erklären wieso du das genau machen würdest? Das Argument mit "Stromverbrauch" und Neukauf usw. muss doch erstmal gedeckelt werden da das Amortisieren auch nicht in 1-2 Monaten erreicht ist, somit stellt sich mir die frage wieso macht man das?
 
AMD hat vor allem ein massives Effizienzproblem. Die Schwäche in RT kommt nur dazu.
 
  • Gefällt mir
Reaktionen: paganini
RT und KI, zwei Dinge die mich als Endanwender kaum interessieren. :/
Gut zugegeben, hab noch nie versucht ein eigenes KI Modell lokal laufen zu lassen, wozu auch wenn ChatGPT und co mir ausreichend Möglichkeiten über die "Cloud" geben.

Wenn Bildergenerierung mal richtig genial ist, wo ich auch Software-Mockups, Sketches und verlässlich Text mit haben kann, ja das wäre ein Gamechanger für mich und dann lokal gut denkbar. Das wird aber noch dauern bis die Bildgenerierung so gut ist. Größte Katastrophe an KI und Bildern ist Text, da brauchts viele Anläufe was halbwegs ordentliches hinzubekommen. Da ist man schneller ein KI Bild zu nehmen und dann mit Adobe oder sonstwas den Text dazuzuknallen.
 
Im AMD Universum fühlen sich meine 6700xt und 6900xt noch taufrisch irgendwie.:D
 
  • Gefällt mir
Reaktionen: fox40phil, Legalev, Ja_Ge und eine weitere Person
Zurück
Oben