Cr4y
Captain
- Registriert
- Mai 2007
- Beiträge
- 3.290
Erstmal abwarten, was ein gemeinsamer Name im Endprodukt genau bedeutet.zeedy schrieb:Warum macht man die Trennung der Architektuten nach Vega jetzt wieder rückgängig?
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Erstmal abwarten, was ein gemeinsamer Name im Endprodukt genau bedeutet.zeedy schrieb:Warum macht man die Trennung der Architektuten nach Vega jetzt wieder rückgängig?
Ich meine schon Radeon.ETI1120 schrieb:So wenig Ressourcen waren das nicht. Es waren 2 Linien RDNA und CDNA. Hinzu kommen auch noch die APUs
RDNA4 sind's 2. RDNA3 waren es gerade mal 2.5. RDNA2 waren 4. So toll ist die Tendenz zumindest die letzten Generationen nicht.ETI1120 schrieb:Bei den Gaming GPUs wurden in der Tendenz größere Dies und mehr unabhängige Designs. Bis eben RDNA 4 kam.
Die können ruhig vorher geklärt werden, aber der Typ hat ewig geredet ohne wirkliche viel gesagt zu haben. Das hätte man in drei Sätze zusammenfassen können.ETI1120 schrieb:Sie haben im Grunde über 3 Punkte geredet, Interconnect, FPU und Mall. Dass die Fragen vorher verabredet waren ist logisch.
Wie kommst du denn auf einen letztendlichen Abstand von 20 - 30 Millionen Konsolen? Bisher verkauft sich die PS5 fast so gut wie die PS4 in einem vergleichbaren Zeitraum:jimpannse schrieb:@latiose88 Die PS4 wurde aber noch fast doppelt soviel verkauft und wird am Ende der PS5 sicher immer noch gut 20-30mio vorne liegen dürfen.
(vlt auch mehr, wenn der Absatz dank GTA6 nicht nochmal deutlich ansteigt)
Es kann auch wie vor GCN mit der 6000 Serie sein. Diese hatte statt VLIW5 auch VLIW4Känguru schrieb:Mein Eindruck ist, dass RDNA4 eher eine entwicklungstechnische Sparversion ist um mehr Kapazität für die UDNA-Architektur freibekommen zu haben.
2026 ist nächstes Jahr ?Rockbreak schrieb:Wünschenswert wäre es aber Gerüchte die 2-3 Jahre in der Zukunft liegen sind halt ungefähr so zuverlässig als würde man einfach eine Münze werfen. Kopf AMD macht wieder High End, Zahl Amd macht kein High End.
whyme schrieb:Nvidia kocht genauso nur mit Wasser wie AMD. Mit was soll Nvidia denn Warten? Einer 1kW TDP GPU? Die sind genauso von der Physik gebremst wie alle anderen auch. Wären sie so überlegen würden sie nicht seit zwei Generationen mit Fake frames die Balken in den Benchmarks künstlich verlängern.
Direkt am Anfang der Pandemie mit den explodierenden Preisen damals? Press x for doubt.ReactivateMe347 schrieb:Eigentlich ist das längst keine Oberklasse mehr, sondern absurde Luxusklasse. Für den Preis einer 5090 hat man vor 5 Jahren noch sie Sperspitze im Gaming als Komplettrechner bekommen.
Was sind denn reale Spiele? Rasterspiele mit einem kleinen Teil RT?blackiwid schrieb:Erstens stimmt fine wine ja mal wieder wenn man fast 1:1 gleich viel RT Leistung in realen Spielen sieht mit 7800xt vs 4700 und in Raster klar davon zieht, weil mehr UE5 spiele kommen und da eben 12gb oft zu wenig sind.
Es ist erbrachte Leistung oder denkst du, dass die FG Frames und das Upscaling keine Berechnungen erfordert, die von der GPU ausgeführt werden müssen?blackiwid schrieb:"Leistung" so kann man das auch nennen, wenn ich dir erzähle das du ein Millionär bist und dann bei einer Bank ein paar Millionen schulden mache auf deinen Namen und das Geld auf ein anderes Konto von dir gebe, hab ich dich dann reich gemacht?
Stimmt schon, wobei hier immer das auf dem 02 Die basierende Produkt genommen wurde, also eine gewisse Konstanz ist schon gegeben.Temporä schrieb:@KlaasKersting
Ich habe mit der Betrachtung ein massives Problem.
Der High End Die ist halt auch einfach eine von NVDIA Produktmarketing technisch gewählte Größe.
In manchen Generationen (Pascal) gab es im Consumer Segment Objektiv keinen High End Die.
Alleine schon, dass nur die für Consumer releasten DIEs aufgeführt werden und nicht alle ist schon ein Problem der Betrachtung.
Mir kommt es auch so oft vor als NVIDIA schaut, wie sehr sie ihre "Lemminge" melken können mit ihren Marketing Folien ...Fighter1993 schrieb:Es kommt mir auch oft so vor als ob NVIDIA einfach auf AMD wartet um nicht in die Monopolstellung zu gelangen.
das wär ja auch komplette verarsche wenn früher eine PS6 kommt, für jeden, der sich mit der PS5 Pro abzocken hat lassenDerMond schrieb:Dürfen sich mit der PS6 noch gerne 2 Jahre Zeit lassen, aktuell null Bedürfnis nach dem Hobel.
Pro Euro kannst doch nicht Leistung von ner 500 Euro karte mit ner 650 vergleichen und dich brüsten das paar % schneller bist.ElliotAlderson schrieb:Was sind denn reale Spiele? Rasterspiele mit einem kleinen Teil RT?
Ist auch großes Kino als Vergleich Spiele heranzuziehen, bei denen RT kaum eine Rolle spielt, wenn man die RT Leistung einer Karte beurteilen will.
Die 4070 (Super) wischt mit der 7800 XT in RT den Boden auf, aber leb du mal weiter in deiner AMD Fanboyblase:
Nunja Fantasie-vermutungs-frames sind eben keine echten Frames, ich kann dir auch schwarze Frames ne million erfinden einfach 1000x nen schwarzes Frame aus geben, das sind auch Frames, also dich juckt doch die Methode wie die Frames erraten werden...ElliotAlderson schrieb:Es ist erbrachte Leistung oder denkst du, dass die FG Frames und das Upscaling keine Berechnungen erfordert, die von der GPU ausgeführt werden müssen?
Es ist sogar extra Hardware dafür vorhanden, um das ganze zu beschleunigen und mich juckt es nicht, wie Frames generiert werden.
NajaKlaasKersting schrieb:Stimmt schon, wobei hier immer das auf dem 02 Die basierende Produkt genommen wurde, also eine gewisse Konstanz ist schon gegeben.
Wobei Shader Count halt auch nur bedingt ein guter Vergleichspunkt wäre.KlaasKersting schrieb:Sonst kann man auch nur mal die selbe Klasse betrachten.
70er von Ampere bis Blackwell: 4,3% mehr Shader.
Von FPS/Euro hast du aber nichts geschrieben! Was wird das hier? Whataboutism, wenn du nicht mehr weiterkommst? Kontext war im Post zuvor noch ein völlig anderer.blackiwid schrieb:Pro Euro kannst doch nicht Leistung von ner 500 Euro karte mit ner 650 vergleichen und dich brüsten das paar % schneller bist.
Was ein Schwachsinn. Ignore und gut. Für so ein Mumpitz ist mir meine Lebenszeit zu schadeblackiwid schrieb:Nunja Fantasie-vermutungs-frames sind eben keine echten Frames, ich kann dir auch schwarze Frames ne million erfinden einfach 1000x nen schwarzes Frame aus geben, das sind auch Frames, also dich juckt doch die Methode wie die Frames erraten werden...
GPP wurde ja viel zu heiß hochgekocht. Nvidia wollte seine Partner dazu bewegen AMD und Nvidia unter unterschiedlichen Markennamen firmieren zu lassen.ThePlayer schrieb:Da bin ich mit nicht so sicher. Klar die Argumentation macht Sinn. Aber wozu war dann der Versuch mit dem GPP vor paar Jahren gut?
Sie sind sogar bei 90% aktuell und im Q1 werden es sicherlich kurzfristig noch mehr.ThePlayer schrieb:Ich finde Nvidia ist doch jetzt schon Monopolist mit einem Marktanteil von über 75% ist man es. Wenn ich die letzten Zahlen noch richtig im Kopf habe war Nvidia doch bei über 80%.
Nvidia ist nicht Intel.Rollkragen schrieb:Ich denke, AMD hat da tatsächlich Potenzial und wird absolut unterbewertet. Ich erinnere mich noch immer daran, wie Intel AMD vorgeführt hat, und auf einmal hat sich das Blatt deutlich gewendet.
Weil es eine Fehlentscheidung war. Die wurde übrigens schon eine Weile im HPC und AI thematisiert. Aber dafür interessieren sich die Gaming interessierten Websites und Portale nicht. Und als Laie lese ich zwar die Kommentare, muss aber viel Aufwand reinstecken um zu verstehen was gemeint ist und worauf es rausläut.zeedy schrieb:Warum macht man die Trennung der Architektuten nach Vega jetzt wieder rückgängig? Damals hatte man doch eingesehen, dass eine für Spieleleistung optimierte Architektur sowohl kosten- als auch energieeffizienter ist.
Wir haben es geforkt, weil man dann die Sub-Optimierungen und die Mikro-Optimierungen bekommt, aber dann ist es sehr schwierig für diese Entwickler, vor allem, weil wir unser Rechenzentrumsgeschäft ausbauen, also müssen wir es jetzt vereinheitlichen.