News Fortschritte bei Raytracing und AI: AMD bestätigt Radeon RX 8000 für Anfang 2025

tox1c90 schrieb:
Eine Nullrunde bei der Performance und dafür Halbierung der Leistungsaufnahme wäre mal was Tolles.
Intel Core Ultra, hust....
Du weißt wie die Reaktionen auf den Test waren, ja ? :D
 
  • Gefällt mir
Reaktionen: TheHille, cbmik, MaverickM und 4 andere
RT interessiert mich persönlich nicht wirklich. FSR benutze ich auch nur wenn es unbedingt sein muss, als Notlösung. Die Bildqualität passt einfach nicht, FSR ist für mich zu 90% unbrauchbar.

Bei mir entscheidet immer der Preis, ich wollte schon vor zwei Jahren von 6700 XT auf eine 4070 von Nvidia wechseln, aber nicht für 600€. Ich bin auch heute nicht bereit mehr als 500€ für eine GPU auszugeben. Das was ich von AMD will, ist eine brauchbare GPU für 500€, dann haben wir ein Deal.
 
  • Gefällt mir
Reaktionen: Icke-ffm und StylishChiller
AMD kann eigentlich nur ein Coup gelingen, wenn die KI Leistung ausreicht, um NVIDIA Marktanteile abzunehmen ansonsten haben sie nur wieder über Preis/Leistung eine Chance aber mit zusätzlicher Konkurrenz durch die Gebrauchten der Umsteiger, die auf RTX5000 upgraden.
 
wer weiß, welche Pfeile AMD noch im Köcher hat. Erst tief stapeln und dann......wir werden es sehen.
 
FeelsGoodManJPG schrieb:
Ich wäre so froh, wenn sie AI Beschleuniger als extra Karten verkaufen würden, und diese nicht in die GPU integrieren. (falls das technisch Sinn ergibt)

Mit meiner 6900XT kann ich keine LLMs hosten und die Rohleistung ist für UWQHD einfach zu wenig und sie hat das schlimmste Spulenfiepen das ich je bei einem Gerät hören musste.

Wenn AMD kein gutes Upgrade bringt, dann muss ich wohl zu NVIDIA wechseln, auch wenn ich das eigentlich nicht möchte.
Meine 6900XT zeigt mal überhaupt keine Anstalten, Spulenfiepen zu veranstalten..., okok, bei 670FPS im Menü eines Spiels zeigte sie kurzzeitiges. Allerdings hatte ich mir auch viel Zeit gegeben bei der Suche / beim Kauf, und eine Powercolor ging zurück (nachdem die 6700XT sowas von leise war und ist).
Geräusche des PCs sind für mich ein Ausschlusskriterium für HW, da nehme ich auch 20%-Minderleistung in Kauf; das kann ich großherzig aussprechen, der ich keine aktuellen Ego-Spiele spiele.

@Topic:
Das einzige, was mich aktuell zu einem Upgrade meiner 6900XT bewegte, wäre, wenn die 6700XT im PC meines Sohnes nicht mehr für ein Spiel, dass er länger spielen möchte, ausreichte, ansonsten sind mir die "Softskills" zu gut im Alltag, thx@Sapphire. :)
 
D3xo schrieb:
RT interessiert mich persönlich nicht wirklich.

So lange man es in spielen noch deaktivieren kann ist ja auch ok. Aber das wird nicht dabei bleiben.
 
Ich hoffe mal AMD kann bei RT ordentlich zulegen. Dann wären die Karten echt interssant. Rasterleistung hat man ja schon genug.
Aber ne 8800XT mit Rasterleistung einer 7900XTX und RT Leistung einer 4070ti super oder 4080, für 600€ das wäre ne mega gute Midrange Karte. Wenn dann die TDP und Kühlung passt, wäre die perfekt für den HTPC. Die würde ich auf jeden Fall kaufen.
 
Sehr schön!

Ich hoffe echt, dass AMD dann auch endlich mal neue Recheneinheiten für das Ganze einsetzt, und dass FSR und Frame-Generation deutlich smoother werden.
Ich würde es mir echt wünschen.
 
zeedy schrieb:
Und schlechtere Treiber hat AMD ja sowieso.
[...]
Ich verstehe nicht, wie es sein kann, dass die neue Generation, die nicht einmal die Vorgängergeneration übertrifft, 2 Jahre später immer noch nicht marktreif ist.
@Treiber"problematik": Ich weiß nicht, ob du es weist, aber "jede Verallgemeinerung ist falsch"! Ich nutze AMD-Karten seit vielen Jahren (und da ich über bald 56 Jahre alt bin, stimmt diese Angabe nicht nur qualitativ), und diese Mär von Treiberinstabilitäten ist genau das, was das Wort bedeutet. Ich habe keine BCs, keine Abstürze, keine Merkwürdigkeiten im Betrieb oder beim Zocken usw. usf.
Aussagen wie deine erste von mir zitierte sind für viele, mich eingeschlossen, ein negativer Gradmesser von Marktübersicht oder Kompotenz usw.

@Evolution / Markteinführung bei AMD-Grafikkarten: Dir ist schon bewusst, dass seit ChatGPT in alles, was mit AI zu tun hat, investiert wird, dabei meine ich nicht nur Risikokapital(geber), sondern die Ressourcen der Hightech-Branche insgesamt inkl. von Seiten-Branchen (Roman hat doch ein eigenes Video über "AI" auf der Computex in diesem Jahr gemacht). AMD MUSS mit Macht den Anschluss an NVidia herstellen, ansonsten sind die Folgen viel dramatischer als die, Gamer nicht adäquat zu bedienen.
Und, für NVidia sind Gamer willfährige Kaufjünger, die für alles Geld ausgeben, was sie an die Spitze der 3D-Nahrungskette befördert. 3D-Preiswertigkeit ist NVidia angesichts der Margen von AI-Beschleunigern mal sowas von egal.

My2Centz
Ergänzung ()

Tornavida schrieb:
Im AMD Universum fühlen sich meine 6700xt und 6900xt noch taufrisch irgendwie.:D
Ich habe die gleichen Grafikkarten in den PCs in unserem Haushalt, ich kann (@6900XT) arbeiten / zocken, mein Sohn kann seine Spiele (@6700XT) wie Hogwarts Legacy, Fortnite oder Red Dead Redemption (in QHD@60Hz) zocken, beide Grafikkarten sind sehr leise, kein Spulenfiepen und wir beide erleben keine gefühlte Armut, weil alles ruckelt "wie Sau"...

Ist doch auch was feines...!? :)
 
  • Gefällt mir
Reaktionen: Ja_Ge, Casillas und daknoll
Floppy5885 schrieb:
Bei allen AMD Karten kann man pauschal 25-30% Vram wieder abziehen, da AMDs VRAM Mangament im Vergleich zu NV schlechter ist und das über alle Games verteilt sogar über Pro AMD.
Das Stimmt so nicht wirklich. AMD lädt halt einfach ihren Speicher voll, da ungenutzer Speicher, sinnloser speicher ist. Nvidia macht das halt nur etwas anders, die knallen ihren speicher nicht direkt voll, sondern lassen immer etwas luft um schneller auf änderungen reagieren zu können. Weil zaubern können auch die nicht ;-)
 
  • Gefällt mir
Reaktionen: eXe777, MaverickM, Ja_Ge und eine weitere Person
gustlegga schrieb:
Intel Core Ultra, hust....
Du weißt wie die Reaktionen auf den Test waren, ja ? :D
Ich frage für 'nen Freund: "Sind nicht die Reaktionen der Käufer für die Firmenumsätze und -gewinne relevant!?"
 
DevPandi schrieb:
Ich konnte jetzt bei mehren Tests beobachten, dass Nvidia-Grafikkarten, sobald der VRAM ausgeht, dazu neigen Texturen nur noch vereinfacht darzustellen. Das ist etwas, was mir bei Baldurs Gate 3 sowie Ratchet & Clank aufgefallen ist.
Ich würde da vorschlagen, eine Artikel zu dem Thema zu machen (inklusive Screenshots etc.). Dann hätte man etwas eigenes auf das man bei derartigen Diskussionen verweisen kann.

Nicht böse gemeint ;)
 
Tharan schrieb:
Es gibt vier Säulen: Leistung, Effizienz, Preis und Treiber. Und in der verbreiteten Meinung denken die meisten bei AMD bekomm ich maximal 2 davon, aber wollen eben bei einem 50%-Gefühl halt nicht viele hundert Euro ausgeben, das fällt bei Nvidia leichter, weil man da über die Themen gleichmäßiger abschneidet.
Oh Mann. Wie kann man nur so eingebildet sein und denken, dass man weiß was „die Meisten“ denken. Bist du Politiker?
 
  • Gefällt mir
Reaktionen: Ja_Ge
Als Linuxuser freue ich mich auf neue Hardware von AMD.
 
  • Gefällt mir
Reaktionen: TheHille, cbmik, Ja_Ge und eine weitere Person
Fauler_Hund schrieb:
Ich würde da vorschlagen, eine Artikel zu dem Thema zu machen (inklusive Screenshots etc.).
Gibt ein Video von HWUB dazu, wo es aber generell um das Thema zuwenig VRAM geht.
VRAM.jpg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: eXe777, cbmik, Perdakles und 3 andere
Ich muss sagen, dass mich RT überhaupt nicht motivieren würde, ich weiß bis heute nicht, warum ich das haben muss. Soweit ich weiß, sieht dann das Feuer bissl anders aus, aber das ist mir nicht wichtig.

KI ist das gleiche thema, wozu brauche ich das denn? Da müsste ich ja irgendein Programmierer sein um mir Software zu basteln, die dann Photos für mich bearbeitet oder ähnliches.

Was mir wichtig sind ist ein geringer Verbrauch und Wärmeentwicklung, gleichzeitig viel VRam und Stabilität.

Entwickeln die GPU Hersteller am Kunden vorbei, oder bin ich wirklich eine Ausnahme?
 
Ein wenig mehr Effizienz beim Stromverbrauch wäre auch ganz nett. Gerade die kleinen Karten (7600 und 7700) hatten da zu kämpfen. Eine 7800Xt hat im Prinzip genau so viel Strom verbraucht wie die 7700Xt aber deutlich mehr dafür geboten. Da sollte AMD ein wenig dran schrauben. Gerade bei ITX will man ja idR kleine und kompakte Karten.
 
Ja_Ge schrieb:
Hast du die News nicht mal gelesen?
"Darüber hinaus bestätigt Lisa Su zwei offene Geheimnisse: AMD will mit der neuen GPU-Architektur insbesondere im Bereich Raytracing und bei den KI-Fähigkeiten deutliche Fortschritte machen und damit ein Stück weit zu Nvidia aufholen."
Ergänzung ()
Schade, aber man darf ja noch Träume haben 😁
 
  • Gefällt mir
Reaktionen: Ja_Ge
Zurück
Oben