News AMD-Gerüchte: Rückkehr zu High-End-GPUs und X3D-Cache für die PlayStation 6

ElliotAlderson schrieb:
Von FPS/Euro hast du aber nichts geschrieben! Was wird das hier? Whataboutism, wenn du nicht mehr weiterkommst?
Ich schreibe sehr lange Kommentare hier mit vielen Absätzen wenn ich mich in irgend nem Halbsatz unklar oder leicht falsch ausdrücke brauchst du keinen persönlichen Angriffe auf mich machen als Fanboy machen.
ElliotAlderson schrieb:
Es amüsiert mich aber wie der AMD Garde hier der Arsch auf Grundeis geht und man krampfhaft versucht den Leuten sämtliche Nvidiatechniken und Hardware schlecht zu reden :D
Auch hier wieder absurdeste Projektion oder Fantasie oder was auch immer, wieso sollte mir der Arsch auf Grundeis gehen, du kannst mir viel vorwerfen ja ich bin ein bisschen ein Fanboy aber aus guten Gründen (weil ich Nvidia für eine bösartige Firma halte, die nicht nur Wettbewerbsverzerrende halb legale oder schon illegale Sachen macht und Märkte manipuliert, Journalisten und Influenzer manipuliert und besticht/erpresst oder zumindest daran angrenzt).

Die Klage von Frankreich neben anderen laufen ja noch, sondern auch weil sie Freiheit bekämpfen alles dran tun freie Standards verhindern bis hin zu dem Versuch Nvidia Monitore zu bauen, so wie wenn eine Autofirma plötzlich anfangen würde nur noch VW Tankstellen auf den Markt bringen wo VW Kunden bessere Preise und besseren Service bekommen und alle anderen nur noch so notdürftig abgefertigt werden (Gsync). Schutzgelderpressungen artiges machen mit der Zertifizierung wo man Nvidia Geld bezahlt und dann ohne jegliche Änderung an der Hardware der Treiber Gsync für die Monitor frei schaltet.

Und eben auch Linux versucht ein proprietäres Treiber Modell durch zu drücken und Kunden zu drangsalieren bis hin zu Dingen wo ich keine Beweise habe aber eben Nvidia auch nicht beweisen kann das sie es nicht machen da sie ihren Treibercode verstecken und ich nur spekulieren kann welche bösen Sachen sie damit verstecken wenn sie nur gut wären gäbs kein Grund Treiber zu verstecken, es gibt nur böse Ziele die man mit geschlossenen Treiber verfolgen kann, ob nur bisschen böse oder extrem Böse dafür habe ich keine Beweise, bestenfalls Indizien.

Dazu sind sie auch die Treibende Kraft ihre Marktbeherschende Stellung dazu aus zu nutzen um die Preise systematisch zu erhöhen und ein Upselling zu machen.

Also ja aus diesen guten Gründen bin ich ein Stück weit ein Fanboy, aber du bist ja auch ein Fanboy... also als selbst Fanboy mir das vor zu werfen finde ich schon sehr strange.

Aber ich bin auch realistisch Fanboy hin oder her, das wenn Nvidias Fakeframes einfach fast identisch mit realen Frames ohne deutliche Nachteile wären und quasi fast echte Frames wären das ich hier 1000 Kommentare schreiben könnte wenn deren "realen" frames damit quasi 4x oder mehr so hoch wie AMDs wären würde das am Erfolg von Nvidia nichts ändern.

Also deine absurde Anschuldigung ist, weil mir angeblich der Arsch auf Grundeis geht, mach ich etwas dagegen das die Situation in keinster weise verändert ich schreibe in nem Deutschen Forum irgendwas das laut dir nicht stimmt... damit was damit AMD nicht Pleite geht oder die Marktanteile weiter sinken... auch wenn klar ist das dies keinen Messbaren Effekt darauf hat, warum weil ich zu blöd bin das zu wissen und glaube das ich durch mein Schreiben hier die Verkaufszahlen massiv verändern kann :D
 
Laphonso schrieb:
Das wird die erste 1000 Euro Playstation :D
Ich rechne mit einer 699 Euro Standard Classic Variante und einer 999 Euro "60 fps 4K*/8K* " Version für die Gamer. Mit GTA VI Bundle oder sowas.

Wäre immer noch günstiger als die PS3 damals inflationsbereinigt.
 
Apocalypse schrieb:
Direkt am Anfang der Pandemie mit den explodierenden Preisen damals? Press x for doubt.
Direkt davor die ETH Blase ... hmmm hmm, also nach UVP vielleicht, aber so real am Markt ... schwierig, aber vielleicht vor GENAU 5 Jahren, die Pandemie Preise haben ja ein wenig gebraucht bis sie den Höchststand erreicht hatten.
Klar, "Scalper" sind da nicht einkalkuliert. Wer das doppelte der UVP zahlt ist schlicht mitschuldig an den Preisen und hat jedes Recht auf Rumjammern verwirkt. Gäbe es solche Deppen nicht, dann würde es "Scalper" gar nicht geben.
 
  • Gefällt mir
Reaktionen: alkaAdeluxx
ReactivateMe347 schrieb:
Gäbe es solche Deppen nicht, dann würde es "Scalper" gar nicht geben.
Jetzt mal nicht gleich ausfallend werden, nur weil die RX6800 hier 700€ gekostet hat und da waren wir sogar noch froh einen guten Preis bekommen zu haben. ;-)

Hat auch überhaupt nichts mit Scalpern zu tun, das war der reguläre Preis im Laden. Angebot und Nachfrage, und nach einer Mining Blase und Mitten in einer Pandemie, wo alle zu Hause festsitzen und sonst nix zu tun haben ... gibt es halt mehr Nachfrage. Sowohl für Gaming als auch Home Office Hardware. Mics waren zum Beispiel auch explodiert bei den Preisen, ganz ohne Mining.
 
blackiwid schrieb:
Nunja Fantasie-vermutungs-frames sind eben keine echten Frames

Also spielst du lieber mit 30fps, die "echt" sind, statt 70-100fps zu haben, bei denen was interpoliert wurde? Oder auf Low statt Ultra mit gleicher FPS-Zahl? Leute sind komisch...
 
  • Gefällt mir
Reaktionen: ElliotAlderson
Quidproquo77 schrieb:
Mehr oder weniger. Wobei das Warten eher damit zu tun hat, dass man einfach die Margen mitnimmt.
Den Druck der Kartellämter gibt es sicherlich auch, somit ist es auch für Nvidia besser wenn es etwas Konkurrenz gibt.
Da bin ich mit nicht so sicher. Klar die Argumentation macht Sinn. Aber wozu war dann der Versuch mit dem GPP vor paar Jahren ?
Ich finde Nvidia ist doch jetzt schon Monopolist mit einem Marktanteil von über 75% ist man es. Wenn ich die letzten Zahlen noch richtig im Kopf habe war Nvidia doch bei über 80%.
Quidproquo77 schrieb:
GPP wurde ja viel zu heiß hochgekocht. Nvidia wollte seine Partner dazu bewegen AMD und Nvidia unter unterschiedlichen Markennamen firmieren zu lassen.
Das sehe ich anders. Man wollte die besten Marken der OEMs fur Nvidia haben. Und für AMD sollten dann entweder nur die einfachen Marken übrig bleiben oder man sollte neue erfinden. Somit wäre für den uninformierten Kunden nur noch Nvidia sichtbar. Da man die anderen Grafikkarten Serien von den OEMs nicht kennt oder meidet da zu billig.
 
  • Gefällt mir
Reaktionen: eXe777 und Quidproquo77
blackiwid schrieb:
Nunja Fantasie-vermutungs-frames sind eben keine echten Frames
Keine echten Frames.... Ich kann nicht mehr. 🤣
Weißt du überhaupt wie die Algorithmik hinter deinen "echten Frames" funktioniert? Da ist raytracing + upscaler + FrameGen aber 1000x näher an der "echten Welt".
 
  • Gefällt mir
Reaktionen: ElliotAlderson
@aLanaMiau Nein Framegen ratet frames, daher gibts auch Artifakte die in der Realität nicht da wären. besonders in Multiplayer games will er dir ne Bewegung des Gegners oder das Stehenbleiben des Gegners zeigen die es gar nicht wissen kann.

Daher hat man Artifakte und extremen Lag. Ja es fantasiert sachen die gar nicht da sind, wie oft darüber köennen wir streiten oder werden es in Tests sehen, aber es passiert definitiv.

Und selbst wenn die Position von irgendwas stimmt, soll ich die ganzen Artikel über DLSS raus suchen da brauch ich noch nicht mal Framegen raus suchen wo selbst neueste DLSS Fehler im Bild produzieren, jeh nach game mehr teils extrem beschissen oder besser aber immer noch nicht voll.

Und was bringen dir 1000 fps wenn die 10 Sekunden alle zu spät kommen, natürlich ist der Lag in echt deutlich kleiner aber nenne nur das Beispiel um das Problem zu verdeutlichen.

Irgendwo ne hohe Zahl stehen zu haben macht ein Spiel nicht automatisch reaktiver oder flüssiger. Die meisten werden zumindest in Multiplayer games keine 4 fake frames benutzen, und oft auch nicht in Single Player games, das berichten mir die ganzen Nvidia Kunden wobei ja Fake Frames eh ne gewisse minimumframes braucht um nicht ein kompletter Clusterfuck zu sein.

Stell dir ein Szenario vor wo du auf 10-15fps kommst und mit frame gen auf 50 hoch prügelst ist das in irgend einer Weise vergleichbar mit echten 50fps selbst in gut optimierten Single player games?

Ja in langsamen Singleplayer games mag der Tradeoff wert sein es verbessert das bild um 12 Stufen aber verschlechtert es auch um 10 Stufen vorallem Temporal, aber das macht es eben nicht um 12 Stufen besser sondern nur um 2 und in Multiplayer spätestens empfiehlt fast jeder es aus zu machen.

Es ist eher eine Notlösung weil man nicht genug Power hat, es nativ auf 4k zu machen, und ja in gut optimierten Spielen mag es sogar im Singleplayer (normales DLSS) besser sein als Nativ 4k im Schnitt, aber der Payoff für Framegen ist viel höher die Nachteile viel Schlimmer und die Vorteile viel geringer.

Ja man kann sich ein paar Games Cherry Picken wo es mit ausgewählten Karten ganz gut läuft aber es als generelle normale Frames dar zu stellen ist absurd.

Wenn dich diese Fakten zum lachen bringen, dann be my guest.

Chatgpt dazu:
Ja, genau! Die Frame-Generationstechnologie geht oft davon aus, dass sich die Szene zwischen den gerenderten Frames nicht radikal verändert. Sie nutzt Informationen aus vorherigen Frames, um die Bewegung und die Position von Objekten vorherzusagen und realistische Zwischenbilder zu erstellen.

Mein K.I. labert auch gerne mal sehr überzeugt klingend Mist daher nehmt das mit bisschen Skepsis aber es stimmt mir hier bei einem Fantasie Bild das passieren kann Recht, vielleicht störst dich aber auch an dem Fantasie weil du das meinst das ich dem irgend ein Menschlichen kreativen Prozess zu ordne, natürlich macht der Algo das nicht um sich aus zu leben oder künstlerisch zu sein aber was ich damit meine ist eben Dinge darzustellen die so nicht sind in echt:
Wenn dann z.B. ein Obekt genau in der Zeit zwischen real berechneten Frames die Richtung ändert kann es dann die Position des Objekts falsch darstellen und dann eine Art Teleport sichtbar sein wen wieder ein echter Frame kommt?

Ja, genau! Wenn ein Objekt in der Zeit zwischen den gerenderten Frames seine Richtung oder Position ändert, kann die Frame-Generationstechnologie Schwierigkeiten haben, diese Änderung korrekt darzustellen. In solchen Fällen kann es zu einem Phänomen kommen, das oft als "Teleportation" bezeichnet wird, wenn der nächste echte Frame angezeigt wird.

Solch ein Teleport kann dir mit "echten" Frames nicht passieren und sowas ist natürlich auch im Singleplayer hässlich aber im Multiplayer wahrscheinlicher und schlimmer weil das den Unterschied zwischen Sieg und Verlieren aus machen kann.

Wenn du von 80 auf 220 fps gehst wirst davon wenig mit bekommen da die zwischenräume und abweichungen in der Regel so klein sein werden das es egal ist aber daher ist Framegen fast unbenutzbar um schwache Karten von Unspielbar zu Spielbaren FPS zu bringen.

Genau da wo es eigentlich am wichtigsten wäre... ne erst Leute die eh schon mindestens 800 besser >1000 aus geben, die können damit noch bisschen Vorteile kriegen und selbst das ist fraglich gibt haufenweise Nvidia Besitzer die selbst mit 4080 / 4090 es aus lassen, und vielleicht um die 144hz zu kriegen lieber auf DLSS Performance oder irgendwas schalten oder auf 20fps noch verzichten weil der Input lag dann immer noch kleiner ist. Für Bilder mag das meistens gut aussehen, weil du ja beim Bild nicht siehst dan der nächste Frame ein Teleport ist oder das das Objekt in Wirklichkeit an der falschen Position dargestellt ist, du denkst ok da wo du es siehst gehöhrt es auch hin, aber als Spieler merkst das es lagged.

Ich sage btw nicht das es in keinem Spiel in keinem Szenario auch mal positiv sein kann, aber es mit realer Rohleistung auch nur ansatzweise zu vergleichen wie der Nvidia CEO es gemacht hat ist schlicht komplett absurd. Und zu sagen ja das "dank A.I." die 5070 gleichwertig wie ne 4090 wäre... Selbst wenn es im Cherry gepickten Game stimmen würde was es nicht tut, müssen dafür 15 Himmelskörper zu ner Eclipse kommen damit das auch nur im Ansatz stimmt, das Spiel muss es unterstützen gut implementiert haben wenig schnelle Objekte und noch genug VRAM für 1080p basis rendering was bei UE5 nicht immer gegeben ist.
 
Zuletzt bearbeitet:
blackiwid schrieb:
Das halte ich aber für ne falsche Beobachtung.

Vielmehr ist es so das Nvidia nur K.I. Karten baut um diese Industriekunden zu beliefern, dann wird fast 1:1 die Karte dem Konsumer verkauft und durch Software und Subventionen versucht die Spiele auf die Nvidia Hardware hin zu optimieren.

Also es wird nicht geschaut was braucht gaming lass uns dafür Hardware bauen, sondern es wird bei Spielen geschaut was für spiele und wie können wir die bauen um die Karten maximal aus zu nutzen.

Nvidia interessiert sich also einen feuchten Scheiß um den Gamingmarkt, man nimmt den halt mit, weil man kann.

Seh da 2 Beweise dafür:
1. die 5080 wird ein totaler Rohrkrepierer viel zu wenig VRAM.
2. ähnliches bei der 5070 wo Nvidia es egal ist das hier AMD mit der 9070xt oder gar eventuell der 9060xt oder so was den Boden aufwischen wird.
KI-Modelle brauchen aber auch viel VRAM. Dass die 5080 in deinen Augen zu wenig VRAM hat, liegt nur daran, dass Nvidia so mehr Gewinn macht durch geringere Herstellungskosten.

Davon abgesehen hätte ich auch gern mehr VRAM, aber eine 5080 wird trotzdem bis zur nächsten Grafikkartengeneration die zweitschnellste Grafikkarte in allen Spielen sein und zwar auch schneller als alle AMD Grafikkarten, unabhängig davon, ob die 16GB oder 32GB VRAM haben werden.
 
Hier mal ein interessanter Artikel vom 3D Center zur Leistungsprognose.

Irgendwie wird die 9070XT für mich immer interessanter, ich suche eine Ablösung für die alte 6900XT.
 
bensen schrieb:
RDNA4 sind's 2. RDNA3 waren es gerade mal 2.5. RDNA2 waren 4. So toll ist die Tendenz zumindest die letzten Generationen nicht.
Wir sind uns einig, dass AMD meist zu wenig Dies hat, um wirklich gegen Nvidia konkurrieren zu können.

Bei RDNA war das noch nachvollziehbar.

Bei RDNA 2 war es erheblich besser, aber ich fand die Aufteilung schlecht. Zwischen Navi 22 und Navi 21 war die Lücke zu groß. Aber das ging nun Mal nicht anders da Navi 22 nun Mal ein halbierter Navi 21 ist. Die Lücke zwischen Navi 22 und Navi 23 war zu klein und mit Navi 24 konnte ich mich nie anfreunden.

Die Aufteilung der 3 Dies war aber besser als die der 4 RDNA2 Dies. das nützt aber nichts, weil RDNA3 schlicht und einfach die Erwartungen nicht erfüllt hat. Auch die von AMD nicht.
bensen schrieb:
Zu den ganzen Influencern, sind wir einer Meinung. Aber auch Leute mit Ahnung können auch mal daneben liegen. Die üblichen Schwätzer ständig.
Ich habe Mal Mal nach Zhang Zhong Hoa gesucht und einige seiner Leaks gesehen. Sie waren in der Vergangenheit nicht schlecht. aber da habe ich auch keine Performance Prognosen gesehen.

Aber die guten Leaker sind fast alle ruhig oder verschwunden. Kopite7kimi ist noch aktiv, aber von Kopite7kimi habe ich nicht so viele Tweets mitbekommen als noch bei Ada.
bensen schrieb:
Die können ruhig vorher geklärt werden, aber der Typ hat ewig geredet ohne wirkliche viel gesagt zu haben. Das hätte man in drei Sätze zusammenfassen können.
Das sehe ich komplett anders, aber wahrscheinlich sind unsere Erwartungen andere. Wie gesagt mir fehlt es am Verständnis der besprochenen Themen, um das Gespräch in 3 Sätzen zusammenfassen zu können.
 
  • Gefällt mir
Reaktionen: bensen
ETI1120 schrieb:
Die Aufteilung der 3 Dies war aber besser als die der 4 RDNA2 Dies. das nützt aber nichts, weil RDNA3 schlicht und einfach die Erwartungen nicht erfüllt hat. Auch die von AMD nicht.
Inwiefern? Navi 22 war unglücklich konfiguriert, zu fett und zu wenig Performance im Vergleich zu Navi23. Hätte.ehr CU und weniger IF$ haben sollen. Aber die Abstufung war im Grunde ganz gut. Bei RDNA3 gab es nur einen Die weniger und N33 mußte N23 und N24 (halb) ersetzen.

N33 in N6 war halt enttäuschend. In N5 hätte der richtig gut sein können. Besser als die kleinen Nvidia Karten.

Aber die Abstufung bei RDNA4 wird wohl OK sein. Mit nur zwei Dies hat man zwangsläufig riesige Lücken.

Edit: Hast du ja erläutert. Hab ich irgendwie überlesen. Vom Materialeinsatz war die Abstufung gut, aber vom Resultat eher nicht. Das stimmt.
 
Zuletzt bearbeitet:
Cr4y schrieb:
Erstmal abwarten, was ein gemeinsamer Name im Endprodukt genau bedeutet.
Die wollen das machen was Nvidia macht und da ist das Problem das CDNA und RDNA teilweise sehr große Unterschiede im CU haben...da muss was einheitlich rauskommen das AMD besser nach unten skalieren kann und damit nur noch eine Softwareplattform für eine CU existiert, wie bei Nvidia!
 
blackiwid schrieb:
besonders in Multiplayer games will er dir ne Bewegung des Gegners oder das Stehenbleiben des Gegners zeigen die es gar nicht wissen kann.
Da der nachfolgende echte Frame bekannt ist, weis er natürlich ob zwischen realframe 1 und realframe 2, die ja beide nur ein paar ms auseinander liegen, eine Bewegung stattgefunden haben muss.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ElliotAlderson und Schokolade
DannyA4 schrieb:
Hier mal ein interessanter Artikel vom 3D Center zur Leistungsprognose.

Irgendwie wird die 9070XT für mich immer interessanter, ich suche eine Ablösung für die alte 6900XT.
Es ist keine Leistungsprognose, es sind Zahlen von MLID. MLID hat eine durchwachsene Trefferquote.

MLID behauptet die Folien wären von AMD. Es gab auch Benchmarks gegen die RTX4800.

Dass die 9070 ca 88 % der Performance der 9070XT erreicht passt nicht zu den kursierenden Specs.
Hier hat die 9070 87.5 % der Shader und erreicht ca. 86 % des Takts der 9070 XT.

Für mich ist es ein klares Alarmsignal, dass die ganzen Gerüchte nicht zusammenpassen, sondern sich teils deutlich widersprechen. Nach der Vollbremsung durch All The Watts!! rollt der Hypetrain wieder mit volldampf.

Nach dem Release: Wenn seine Zahlen stimmen sorgt Tom von MLID dafür, dass es jeder mitbekommt, Wenn seine Zahlen nicht stimmen löscht MLID still und heimlich das Video, wie MLID es öfters getan hat.
Ergänzung ()

megaapfel schrieb:
Davon abgesehen hätte ich auch gern mehr VRAM, aber eine 5080 wird trotzdem bis zur nächsten Grafikkartengeneration die zweitschnellste Grafikkarte in allen Spielen sein und zwar auch schneller als alle AMD Grafikkarten, unabhängig davon, ob die 16GB oder 32GB VRAM haben werden.
Ist sie tatsächlich schneller als eine 4090?
 
Zuletzt bearbeitet:
Taxxor schrieb:
Da der nachfolgende echte Frame bekannt ist, weis er natürlich ob zwischen realframe 1 und realframe 2, die ja beide nur ein paar ms auseinander liegen, eine Bewegung stattgefunden haben muss.
Gut das ich das gerade noch einmal gegoogelt habe.
Nach ursprünglichen Aussagen sollte MFG die Zukunft vorher sagen, also nicht interpolieren. Da scheint Jensen sich aber versprochen zu haben.
https://www.tomshardware.com/pc-com...crease-framerates-without-introducing-latency
 
  • Gefällt mir
Reaktionen: Taxxor
whyme schrieb:
Da scheint Jensen sich aber versprochen zu haben.
Wie im Artikel beschrieben, scheint da MFG und Reflex 2 durcheinander geworfen worden zu sein
 
Apocalypse schrieb:
Angebot und Nachfrage
Das stimmt schon. Aber mir wäre neu, dass seriöse Händler Karten deswegen fürs Doppelte anbieten - und auch ohne Scalper gilt: Wenn keiner teuer kauft, wird es günstiger. Ich verstehe nicht, wie man sich sehenden Auges über den Tisch ziehen lassen kann, nur damit die Pixel etwas schöner sind.
 
Zurück
Oben