News Radeon-Gerüchte: AMD werde RX 7700 und RX 7800 zur Gamescom vorstellen

  • Gefällt mir
Reaktionen: Vitche und .fF
@Ayo34 AMD hat schon einige gute Entscheidungen getroffen: FSR als Open Source was ich eigentlich gegenüber DLSS favorisiere, auch endlich bei den Codecs nachgerüstet, aber sonst hast du vollkommen Recht. Wenn ich mit der Leistung nicht mithalten kann ganz oben, wieso dann nicht das brache Feld in der Mittelklasse übernehmen?
Und da muss irgendwo etwas schief gelaufen sein. Denn mit niedriger Leistungsaufnahme fehlt aktuell die Leistung, also müsste man die Chip aufbohren, der dann in der Mittelklasse zu teuer wird. Das Chiplet-Design ist da dann der richtige Weg zukünftig, aber aktuell halt misslungen. Und als Aktienunternehmen kann man wohl die Marge, wenn man N32/N31 in der breiten Mittelklasse, nicht nur in der oberen, zur Verfügung stellt nicht halten. Schöner Schuss ins Knie.

Es bleibt nur zu hoffen, dass es so langsam voran geht, weil man sich nun wirklich mal um die Treiber und die näcshte Generation kümmert. Aber wie du sagst ist dann das mit FSR3 weiterhin fraglich, wo das bleibt.
 
joel schrieb:
Ein gewisser Frust stellet sich jedoch auch seitens der aktuell auf den Markt kommenden Spiele ein.
Setzt man Crysis als Referenz, dann hat sich in den letzten 15 Jahren grafisch und technisch so viel nicht getean!
Statt dessen versucht man uns permanent neue Leistungsfressende Engines und Remakes unter zu jubeln!
Das Problem beim Setzen von Crysis als Referenzpunkt ist bloß, (und das wird ständig vergessen!) dass es nicht nur auf damaliger Hardware vor fünfzehn Jahren nicht auf Ultra lief, sondern auch Jahre später nicht sonderlich stark. Auf einer 1080ti war 2160p60 zum Beispiel auch von Seiten der GPU nicht möglich; siehe hier: https://www.pcgamer.com/10-years-later-we-can-finally-run-crysis/ Darüber hinaus gab es auch noch Szenen, die Ultra-heftig CPU-limitiert waren und sind:

→ soll sinnvoll mit dem ursprünglichen Crysis verglichen werden, dann braucht es auch wirklich den Vergleich damit. Das heißt: Aktuelles Spiel und damaliges Crysis beide auf die gleiche Auflösung stellen. Gleiches Frameratetarget anstreben. CPU-Limit ausschließen!
 
Das wird die selben Entscheidungen geben wie zwischen 7900xt und 4070 ti.

Glaskugel: Die 7800 wird ohne rt etwas schneller als die 4070 sein, mehr Speicher bieten, dafür mit rt etwas langsamer und einen höheren Verbrauch haben.

Die 7700 wird ohne rt etwas schneller als die 4060 ti sein, mehr Speicher bieten (abgesehen von der zu teuren 16gb Variante), dafür mit rt etwas langsamer und einen höheren Verbrauch haben...

Fände ich alles in allem gut.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Harpenerkkk, Casillas, Corpus Delicti und 6 andere
Telechinese schrieb:
Die 7800 auf dem Niveau der 4070...
Bei 30% "mehr" Stromverbrauch (200W zu 260W)... aha...
Das hört sich für mich nicht wie "auf selbem Niveau" an...
Und wenn's eh erst im September kommen... lol 🤣
Bei Ampere war's noch anders rum aber da wurden dann andere an den Haaren herbeigezogene Argumente genutzt um AMD madig zu reden.
Es gibt halt immer Kompromisse die man eingehen muß, vorteile und nachteile aufwiegen und dann mal sehen was übrig bleibt.
 
  • Gefällt mir
Reaktionen: Harpenerkkk, MiroPoch, DF86 und eine weitere Person
Tharan schrieb:
@Ayo34 AMD hat schon einige gute Entscheidungen getroffen: FSR als Open Source was ich eigentlich gegenüber DLSS favorisiere, auch endlich bei den Codecs nachgerüstet, aber sonst hast du vollkommen Recht...

Aber selbst hier muss man aus egoistischen Gründen ja sagen, dass man mit Nvidia DLSS hat und zusätzlich FSR benutzen kann. Mit der AMD Karte "nur" FSR und das ist leider meistens etwas schlechter.

Gleichzeitig muss man auch sagen, dass AMD nicht FSR als Open Source herausgebracht hat, weil sie gut sind, sondern weil es die einzige Möglichkeit war das mit der kleinen Kartenanzahl von AMD im Markt zu etablieren. Ähnlich wie damals mit Gsyn/Freesync.

Nvidia ist bei Treiber, Software, Funktionen einfach deutlich innovativer und erfindet die Sachen und dann wollen sie es natürlich auch als Verkaufsargument vermarkten für ihre Karten. Entwicklung und Forschung kostet ja auch Geld. AMD baut dann nach und geht eben über OpenSource um überhaupt eine Alternative zu haben.

Hätte genauso auch andersherum laufen können, wenn AMD als erstes entwickelt hätte. Dann wäre das auch exklusiv für AMD gekommen. AMD und Nvidia arbeiten für die Aktionäre, nicht für die Spieler. Sieht man auch gut bei den CPUs, wo man jetzt vorne ist seit Ryzen 5000. Da gibt es auch keine Schnäppchen mehr wie früher gegenüber Intel. Auf einmal geht Intel über den Preis.
 
  • Gefällt mir
Reaktionen: Pro_Bro und Tharan
Jethro schrieb:
Vorstellung Ende August, dann kommen die wohl Ende September Anfang Oktober auf den Markt.
Also noch gute 2 Monate bis zu den Reviews, hoffentlich ist dann auch FSR3 fertig.
Will endlich wissen was das leistet ob ich endlich eine 7900XT kaufen kann oder NV Geld für eine 4080 in den Rachen werfen muss.
Das würde bedeuten die Karten kommen mit allem drum und dran fast 1Jahr nach RX 7900XT und co auf den Markt. Das ist schon echt traurig.
 
  • Gefällt mir
Reaktionen: SirNiffler und DerToerke
@ruthi91 Nana, es muss ja nicht gleich so übertrieben sein. 16 für die kleinere und 20 für die größere hätten nicht geschadet. Will ja auch wieder frühestens in 4 Jahren nachkaufen müssen. Und Rückschritte zur Vorgängerversion machen halt auch null Sinn. Außer für die Rendite.
 
Samuelz schrieb:
Ampere hat sich trotzdem sehr gut verkauft, sei es aufgrund der Mining "Spinner" oder Gamer, das müssen andere bewerten.
Dazu kommt noch, dass AMD ihre N7-Kapazitäten in erster Linie dafür genutzt hat, vertragskonform die Konsolen-SOCs herzustellen, in zweiter Linie dann die Vermeer-DIEs für ihre CPUs und dann erst die Navi 2X-DIEs.
Siehe z.B. hier: https://www.hardwaretimes.com/amd-u...yzenradeon-chips-in-the-last-6-months-approx/

Es gibt entsprechende Quellen auch in deutlich schöne, deutlich langfristiger und offizieller. Ich finde sie gerade bloß nicht wieder. Vielleicht mag jemand in die Bresche springen, der sie noch zur Hand hat.

Nvidia gleichzeitig hat die Samsung 8nm-Kapazitäten nur für Ampere genutzt. Klar, den Node wollte ja auch keiner freiwillig nutzen. (Hopper basierte hingegen auf N7) Entsprechend konnte Nvidia auch wie blöde produzieren und die Marktsituation ordentlich ausnutzen.
 
  • Gefällt mir
Reaktionen: DF86 und Schneee
Wanderwisser schrieb:
Das wird die selben Entscheidungen geben wie zwischen 7900xt und 4070 ti.

Glaskugel: Die 7800 wird ohne rt etwas schneller als die 4070 sein, mehr Speicher bieten, dafür mit rt etwas langsamer und einen höheren Verbrauch haben.

Die 7700 wird ohne rt etwas schneller als die 4060 ti sein, mehr Speicher bieten (abgesehen von der zu teuren 16gb Variante), dafür mit rt etwas langsamer und einen höheren Verbrauch haben...

Fände ich alles in allem gut.

Ja, so ähnlich stelle ich es mir auch vor bzgl. der Gegenspieler mit den üblichen kleinen Unterschieden bei Preis und Leistung, AMD wird versuchen immer knapp darüber zu liegen um den Rückstand in RT zu verdecken. Dazu für die gleiche Leistung 20-30% mehr Leistungsaufnahme in der Mittelklasse.
NvidiaSpeicherTDPAMDSpeicherTDP
409024GB450W
408016GB320W7900XTX24GB355W
4070 Ti12GB285W7900XT20GB315W
407012GB200W780016GB260W
4060 Ti8GB160W770012GB200W
40608GB115W76008GB165W

In sechs Wochen wissen wir mehr und dann kommt eigentlich die einzig entscheidende Frage: Reicht das und hat AMD da genug Marge bei den Chips, um den Preiskampf zu eröffnen und Nvidia zum Reagieren zu bringen oder ziehen letztere es stoisch einfach durch mit der UVP.
 
  • Gefällt mir
Reaktionen: danyundsahne, Schneee und Wanderwisser
Und trotzdem war Nvidia trotz Samsung 8nm, eher 10nm+ nicht weit weg von AMD bei der Effizienz mit TSCM 7nm. Das war auch der Grund für den Sprung bei der 4000er Generation. Nvidia hat 2 Sprünge gemacht, AMD nur Einen.
 
  • Gefällt mir
Reaktionen: feris
Man muss sich diese Aussage aus dem Artikel hier mal auf der Zunge zergehen lassen:"s ist in Tradition der aktuellen Generation jedoch nicht unbedingt damit zu rechnen, dass die beiden neuen Grafikkarten mehr FPS pro Euro liefern als RDNA 2 im Abverkauf."

Wozu bringt man eine neue gen. raus, wenn diese keinen Mehrwert in Form von mehr Leistung bringt? Wozu haben die User dann gewartet. Ich hoffe AMD fährt für diesen Schwachsinn aber mal sowas von einem Shitstorm ein.............
 
  • Gefällt mir
Reaktionen: feris und HansDetflefAndi
Glaube AMD hat die 7000er Generation irgendwie schnell abgehackt... hoffentlich wird die 8000er Generation wieder auf Nvidia Niveau, min. mal bei der Effizienz.
 
  • Gefällt mir
Reaktionen: Harpenerkkk, schneeland und SirNiffler
Supie schrieb:
Man muss sich diese Aussage aus dem Artikel hier mal auf der Zunge zergehen lassen:"s ist in Tradition der aktuellen Generation jedoch nicht unbedingt damit zu rechnen, dass die beiden neuen Grafikkarten mehr FPS pro Euro liefern als RDNA 2 im Abverkauf."

Wozu bringt man eine neue gen. raus, wenn diese keinen Mehrwert in Form von mehr Leistung bringt? Wozu haben die User dann gewartet. Ich hoffe AMD fährt für diesen Schwachsinn aber mal sowas von einem Shitstorm ein.............

Weil RDNA3 weiterhin ein Fortschritt ist bei manchen Features und alleine durch die Fertigungsweise am Ende wahrscheinlich günstiger, weil man an sich ja kleinere Chips produziert und die dann mit den MCDs kombiniert. Und am Ende ist es auch trotzdme ein kleiner Sprung bei Leistung und Effizienz, wenn auch ein vergleichsweise kleiner.

Aber der wichtigste Punkt wird die Marge sein. Sonst würde man wohl eher noch den Gesichtsverlust fehlender 7800er und 7700er hinnehmen und die 6000er Reihe weiter produzieren.
 
  • Gefällt mir
Reaktionen: or2k, DF86 und DerToerke
Flutefox schrieb:
utopischer Preise für Aussteller und Besucher?
Diese Eigenschaft hat die Gamescom nicht exklusiv. Buch mal als Hersteller nen Stand auf der Intergastra.
Ergänzung ()

Ayo34 schrieb:
Glaube AMD hat die 7000er Generation irgendwie schnell abgehackt... hoffentlich wird die 8000er Generation wieder auf Nvidia Niveau, min. mal bei der Effizienz.

Wäre wünschenswert, aber dann gehts bestimmt auch preislich Richtung nVidia. 😉
 
CDLABSRadonP... schrieb:
Passt im großen und ganzen durchaus.

Der Zeitraum ist zu lang. Tesla 2.0 war recht durchwachsen, Fermi verspätet und einige der GPUs nicht gelungen genug. Ab Kepler bis Ampere lässt sich die These durchaus vertreten. Ampere hingegen war richtig schwach und "musste" deshalb hochgeprügelt werden.
Das hat aber keinen wirklich interessiert ob Ampere „nur“ 45% (:freak:) stärker als die Vorgängergeneration war. Die Grafikkarten lagen den größten Teil der Zeit bei der mehrfachen UVP.
CDLABSRadonP... schrieb:
Denn mit dem marginalen Fortschritt der Effizienz hätte Nvidia kaum jemanden ansonsten locken können. 25% mehr Performance bei gleicher TDP? Das war erbärmlich.
Die Effizienz war noch nie so relevant wie du es darstellen willst, wie man aktuell bei AMD RX 6000 sieht, die sich trotz deutlich schlechter Effizienz aufgrund der marginal günstigeren Preise gut verkaufen.
CDLABSRadonP... schrieb:
Was uns wieder zum passt im großen und ganzen durchaus im Radeon-Kontext bringt:
RDNA 2 stand auch deshalb so gut dar, weil Ampere so richtig schwach war.
Nein Ampere und RNDA2 waren gleichauf. Beide waren knapp 40% schneller als eine RTX 2080 Ti und somit das absolute Gegenteil von schwach :rolleyes:
Eher stand RNDA2 so gut da, weil die eben gleich schnell wie Ampere waren ;)
CDLABSRadonP... schrieb:
(übrigens steht auch Ada bzw. die 4090 --- alle andere werden ja von den Preisen überschattet --- so gut dar, weil Ampere so schwach war)
Deshalb ist auch das Schwachsinn.
Die RTX 3090 war 45% (!) schneller als eine RTX 2080 Ti:
IMG_0162.jpeg

Und die RTX 4090 darauf wieder 70% (!) schneller als eine RTX 3090:
IMG_0163.jpeg

Schwach war hier lediglich deine Auffassungsgabe und das was AMD geliefert hat.
 
  • Gefällt mir
Reaktionen: HansDetflefAndi und Sinatra81
Alleine die +100% Effizienz in einer Generation ist ein Wahnsinns-Sprung von 3000er zur 4000er Generation. Entsprechend hat die 4080 und insbesondere die 4090 einen enormen Sprung gemacht bei der Leistung und trotzdem laufen sie mit 200-300 Watt noch enorm schnell.

Strom runter und Leistung rauf hatten wir selten. Beeindruckender wäre natürlich 100% mehr Leistung bei 30% mehr Stromverbrauch oder so in den Balken. Dabei finde ich persönlich -20% Stromverbrauch und "nur" 50% mehr Leistung z.B. beeindruckender. Macht sich nur nicht so gut im Marketing. Oben drauf dann noch DLSS3 wo jetzt auch Raytracing + sogar Pathtracing nutzbar ist ohne Einschränkungen.
 
Flutefox schrieb:
Gamescom, ist das nicht die Veranstaltung, welche aktuell immer irrelevanter wird aufgrund utopischer Preise für Aussteller und Besucher? Kein Wunder, dass viele lieber Hausmessen abhalten wollen, auch wenn das wirklich sehr schade ist. :(
Die Preise werden "utopischer", weil die Nachfrage sinkt. Was will man heutzutage noch auf so einer Messe? Eine Online abgehaltene Veranstaltung ist doch wesentlich günstiger und zielführender. Wer stellt sich denn noch freiwillig stundenlang in die Schlange bei einem Spiel um 15 Minuten zu daddeln? Spielemessen sind nicht tot, weil sie "utopische" Preise (27 Euro sind gar nicht so utopisch, wenn ich daran denke, was mich der Tageseintritt bei einer Anime-Convention in Deutschland kostet [Spoiler: Gern mal das Doppelte]), sondern weil "Spielemessen" einfach Auslaufmodelle sind.
Die Games Convention ist da ja nicht die einzige Messe, die Probleme hat.
 
tomgit schrieb:
Das Problem haben wir aber in beiden Lagern. Genau genommen gibt es weder bei AMD, noch bei Nvidia gute Preise für die gebotene Leistung, und weniger mehr als Stagnation wird Preis/Leistungstechnisch geliefert.
Der einzige "Vorteil" im Nvidia-Lager ist das Geschummle mit DLSS 3, sofern das überhaupt abgerufen wird.
Gute Preise sind schon seit rtx 2000 vorbei, diese Generation hat es die Mittel bis oberklasse aber leider nochmals richtig getroffen, vorallem die rtx 4080 und 4070 ti sind massiv teurer geworden. Bei der 4090 bekommt man als einzigste Karte wirklich mehr Leistung pro Euro, mehr Verhältnis zur 3090. Das wirklich schlimme ist eigentlich, dass alle Karten bis auf rtx 4060(ti) und RX 7600 aus technischer Sicht eigentlich ziemlich überzeugend sind. Die rtx 4080 ist gut und leistungsstark, dazu Effizient, selbiges gilt für die rtx 4070. Bringt aber nichts, wenn der Preis so massiv angezogen wird... Nvidia hat aber eben diese Generation dlss3 und eine wirklich beeindruckende Effizienz, AMD hat da bloß fsr2 und eine Katastrophale Effizienz.
tomgit schrieb:
Absurde Preise bei Hardware treffen auf absurde Preise bei Spielen, und qualitativ geht beides nach unten. Wen wundert es da, dass der Markt einzusacken scheint? Niemand kauft sich eine 600€ Karte, um Gollum ruckelfrei spielen zu können.
Irgendwann wird jeder auf der Konsole spielen, außer Microsoft und Sony machen bei der nächsten Generation den Nvidia 3080 move und verdoppeln den Preis. Cloud gaming hat auch ein großes Potenzial, wenn irgendwann jeder schnelles und zuverlässiges Internet hat.
SIR_Thomas_TMC schrieb:
@Ben_computer_Ba Exakt, ne 6800xt für 400 €, vielleicht auch bis zu 450€, würde ich mir auch holen.
So wird es sehr sehr vielen gehen, umso seltsamer, dass AMD die Chance nicht wahr nimmt, ihren Marktanteil zu erhöhen


Insgesamt finde ich es auch etwas überraschend, dass AMD diese Generation überhaupt nicht vram spendabler ist als Nvidia, das war ebenfalls immer ein klarer Grund AMD in der unter bis Mittelklasse zu empfehlen, da sie durch den größeren vram eben zukunftssicherer waren. Diese Gen ist die RX 7600 mit lediglich 8gb knapp bemessen und die 7700xt mit 12gb ist zwar in Ordnung aber auch alles andere als großzügig, eine 6800xt mit 12gb klingt nicht sonderlich verlockend und in höheren Auflösung und schlecht optimierten Titeln wird man die 12gb auch zum Überlaufen bringen könenn. Die 16gb der 7800xt sind zwar auch absolut ausreichend, jedoch würden sich 20gb schon besser lesen und würden in den größten Ausnahmen wie dem Microsoft flight Simulator auch nützlich sein. In anderen Bereichen abgesehen vom gaming kann man noch in viel mehr fällen von mehr vram profitieren. Vram ist günstig wie nie und AMD knausert auf einmal mit, wie noch nie. Nvidia ist da zwar absolut nicht besser, aber von denen ist man das ja schon gewöhnt.
 
  • Gefällt mir
Reaktionen: tomgit und SIR_Thomas_TMC
Czk666 schrieb:
Das stimmt so nicht unbedingt. Die AMD Karten haben einen neuen Treiber erhalten. Der idle Verbauch z.b. ist unter dem der 4090.
Je nachdem mit welchem Monitor und welcher Auflösung :daumen:
AMD hat es noch nicht bei allen Setups auf einen guten Idle-Verbrauch geschafft.
Es sei denn ich habe etwas verpasst.
 
  • Gefällt mir
Reaktionen: Czk666
Zurück
Oben