News AMD-Gerüchte: „Big Navi“ angeblich zu klein und Zehn-Kern-Zen-3

Cyberpunk 2077 käme erst infrage, wenn die ersten Patches raus sind und für gut befunden wurden.
Wie bei jedem Spiel.
 
Kann sein kommen die Karten in Jan darum finde ich etwas spät... möchte schon gern AC und Watchdogs spielen mit eine neue Karte!
 
Taxxor schrieb:
Naja 28. Oktober "learn more", wann die Karte kommt ist nochmal was anderes

AMD hat doch gesagt das die RDNA 2 Karten vor den Konsolen kommen, die Xbox kommt am 10.11 vermutlich wird dann ab 28.10 die Karten gleich verfügbar sein (hoffentlich auch gleich die customs).
 
Benji18 schrieb:
AMD hat doch gesagt das die RDNA 2 Karten vor den Konsolen kommen,

Ich würde nicht jedes einzelne Wort auf die Goldwaage legen, erst recht nicht nachdem was Nvidia vorgestellt hat und was möglicherweise eine Reaktion seitens AMD erfordert. Abgesehen davon ist Navi 10 auch am 07.07.2019 "gekommen", wann gab es dann hierzulande brauchbare Karten zu kaufen?

Die Geschichte mit den GPUs, CPUs und Konsolen hängt bei AMD ganz eng zusammen und die Konsolen werden für das Weihnachtsgeschäft eine viel höhere Priorität haben. Wichtig ist aber schon mal, dass es wenigstens ein Lebenszeichen gibt.
 
  • Gefällt mir
Reaktionen: Unnu
Novasun schrieb:
Die andere Bombe wäre -siehe Igor - AMD bringt das als MCM.. Gut mehr als 2 GPU Chiplets könnte man denke ich noch nicht zusammenschalten - aber damit wäre man an der 3090 für AMD Verhältnisse sehr nahe dran. Und technologisch würde die Hütte brennen..
Da ja der vielgeschmähte Raja eine solche Entwicklungsrichtung schon bestätigt hat, ist es eigentlich nur noch eine Frage der Zeit, bis wir ein solches Design auch wirklich sehen werden. Fragt sich von wem zuerst. AMD, Intel oder doch nVidia?

Denn letztlich werden sie um Multicore nicht herumkommen. Wie bei den CPUs.
DAS wird dann wieder spannend, ob sie die dadurch entstehenden Probleme sauberlösen können. DX12 sollte dabei eigentlich helfen.
 
xexex schrieb:
Ich würde nicht jedes einzelne Wort auf die Goldwaage legen, erst recht nicht nachdem was Nvidia vorgestellt hat und was möglicherweise eine Reaktion seitens AMD erfordert. Abgesehen davon ist Navi 10 auch am 07.07.2019 "gekommen", wann gab es dann hierzulande brauchbare Karten zu kaufen?

Ich lege nicht alles auf die Goldwaage, aber ich wäre einmal positiv überrascht wenn AMD einen Marktstart bei den Radeon nicht versaut und mal zeitnahe abliefern kann :) und der Schwätzer Koduri ist gott sei dank nicht mehr bei AMD.

wenn die Leaks stimmen ernüchternd 🤷🏻‍♂️ im schlechtesten Fall 28% über der 2080Ti naja also wenn sich AMD anstrengt ist die 3080 durchaus in greifbarer nähe.
E32C4C52-2E78-4589-B9DA-24B6B0A7C05C.jpeg
 
@xexex
doppelte Performance laut Folien ist das halt nicht, damit ist die 3070 vermutlich auch nicht schneller als die 2080Ti sondern wahrscheinlich etwas langsamer.

heißt aber auch im umkehr schluss für AMD ist die Ampere durchaus in Angriffsnähe wenn RDNA 2 das verspricht was man sich so erwartet.
 
Benji18 schrieb:
doppelte Performance laut Folien ist das halt nicht,

Die Folien sprechen von bis zu doppelter Leistung einer 2080 (ohne S und ohne Ti).
1599674280986.png


Der Preis ist hier entscheidend im Hinblick auf die 2080Ti.
 
Benji18 schrieb:
doppelte Performance laut Folien ist das halt nicht, damit ist die 3070 vermutlich auch nicht schneller als die 2080Ti sondern wahrscheinlich etwas langsamer.

Dein Argument von wegen vermutlich gilt genau so für AMD. Benchmarks enthalten außerdem nie alle Featues, sondern aktuell reine Rasterisierungsleistung. Wenn AMD da auch nur in die Nähe kommt, schaltet Nvidia Raytracing und DLSS ein und die Radeons fallen zurück.

Vergiss nicht, dass die RT Funktionen in die Shader von RDNA² gelagert wurden. Das hieße sobald Raytracing in einem Spiel aktiviert ist, verlieren die Radeons massiv an Leistung. Das können locker 30% oder mehr sein.

Benji18 schrieb:
heißt aber auch im umkehr schluss für AMD ist die Ampere durchaus in Angriffsnähe wenn RDNA 2 das verspricht was man sich so erwartet.

Angriffsnähe hat man lediglich, wenn man alle relevanten Funktionen und Fähigkeiten von Ampere ausschaltet und alles bei AMD anlässt oder im Fall von Raytracing überhaupt nicht erst aktiviert. Bin mir ziemlich sicher genau das werden die AMD-Fans auch in den Reviews und Tests fordern!

Es ist geradezu unmöglich, dass AMD innerhalb einer Generation über 80% Leistungszuwachs ohne Shrink(!) nur aus der Architektur rausholt. Gleichzeitig soll laut AMD-Fans sogar noch der Stromverbrauch nach unten pulverisiert worden sein und in Sachen Raytracing schlägt man lt. den Fanboys ebenfalls Nvidia locker flockig, obwohl man weniger als ein 1/4 des R&D-Budgets hat. Alles natürlich als Krönung noch zu einem günstigren Kaufpreis des Endprodukt bei gleicheitig mehr VRAM?

Leute, das ist totale Traumtänzerei. Selbst ein Kriterium davon wäre davon schon ziemlicher Sprung.
 
Hardware_Hoshi schrieb:
Vergiss nicht, dass die RT Funktionen in die Shader von RDNA² gelagert wurden. Das hieße sobald Raytracing in einem Spiel aktiviert ist, verlieren die Radeons massiv an Leistung. Das können locker 30% oder mehr sein.
Zum Glück haben ja alle aktuellen RT-Titel DLSS 2.0. Oder etwa nicht? :rolleyes:
 
  • Gefällt mir
Reaktionen: Benji18
Colindo schrieb:
Zum Glück haben ja alle aktuellen RT-Titel DLSS 2.0. Oder etwa nicht? :rolleyes:

Wie wahr, aber jeder AAA Titel wird die Technik sicherlich nutzen. Was einer der großen Publisher macht, wird von der ganzen Industrie gemacht.

Es werden eher mehr Spiele mit der Technik, nicht weniger. Bei dem Ausblick wäre RDNA² bei fehlender Funktionsweise nicht einmal "zukunftsfähig". Ich lasse mich gerne vom Gegenteil überzeugen, aber AMD schweigt sich leider gerade tot!
 
Hardware_Hoshi schrieb:
schaltet Nvidia Raytracing und DLSS ein und die Radeons fallen zurück.

das mag sein das DLSS hier vorteile bietet.

Hardware_Hoshi schrieb:
Vergiss nicht, dass die RT Funktionen in die Shader von RDNA² gelagert wurden. Das hieße sobald Raytracing in einem Spiel aktiviert ist, verlieren die Radeons massiv an Leistung. Das können locker 30% oder mehr sein.

Aja is klar hast nicht mal Benchmarks und saugst dir da zahlen raus abwarten was da kommt und ob da wirklich soviele Leistung verloren wird ;-)

Hardware_Hoshi schrieb:
Angriffsnähe hat man lediglich, wenn man alle relevanten Funktionen und Fähigkeiten von Ampere ausschaltet und alles bei AMD anlässt oder im Fall von Raytracing überhaupt nicht erst aktiviert. Bin mir ziemlich sicher genau das werden die AMD-Fans auch in den Reviews und Tests fordern!

Es ist geradezu unmöglich, dass AMD innerhalb einer Generation über 80% Leistungszuwachs ohne Shrink(!) nur aus der Architektur rausholt. Gleichzeitig soll laut AMD-Fans sogar noch der Stromverbrauch nach unten pulverisiert worden sein und in Sachen Raytracing schlägt man lt. den Fanboys ebenfalls Nvidia locker flockig, obwohl man weniger als ein 1/4 des R&D-Budgets hat. Alles natürlich als Krönugn noch zu einem günstigren Kaufpreis?

Leute, das ist totale Traumtänzerei. Selbst ein Kriterium davon wäre davon schon ziemlicher Sprung.

ja nee ist klar 🤷🏻‍♂️
das gemülle kahm auch beim Zen release und siehe 2 Gens später .....
Ergänzung ()

xexex schrieb:
Die Folien sprechen von bis zu doppelter Leistung einer 2080 (ohne S und ohne Ti).

stimmt da fehlt das Ti 🤦‍♂️🤷🏻‍♂️
 
xexex schrieb:
Der direkte Vergleich hinkt aber. der GA100 ist größer, hat keine RT Kerne und taktet nur mit 1,2Ghz. Zudem ist der verkaufte Chip alles andere als beeindruckend im Vergleich zum Vorgänger, trotz Umstellung von 12nm auf 7nm.
Anhang anzeigen 964575
Anhang anzeigen 964576
https://www.heise.de/newsticker/mel...Fast-7000-Kerne-und-40-GByte-RAM-4720862.html

Stromaufnahme 400W? So viel zu viel besseren Prozess von TSMC.
2.5x so viele Transistoren bei der gleichen Chipfläche ist also nicht beeindruckend? HÄ?
 
BAR86 schrieb:
2.5x so viele Transistoren bei der gleichen Chipfläche ist also nicht beeindruckend?

Es kommt nicht auf die Anzahl der Transistoren an, sondern auf das Ergebnis. Hier wurde der Prozess als ganzes bewertet und 400W bei 1,2Ghz (A100) Takt sind im Vergleich zu 350W bei 1,6Ghz (3090) für mich nichts beeindruckendes. Die 3090 hat auch mehr als doppelt so viele Transistoren im Vergleich zu der 2080ti und die Fläche ist sogar kleiner geworden.
 
  • Gefällt mir
Reaktionen: Benji18
Pana schrieb:
Ach na klar. Wer selbstsicher ist und was in der Rückhand hat, der haut auch mal was raus und macht sich nicht klein und unsichtbar.
Hat ja bei Vega wunderbar funktioniert. ;) Sorry aber ich sehe auch keinen 3090 Killer kommen, aber die Aussage ist schon stark naiv von dir. Die Marketing Leute der GPU Sparte sind nun bei Intel, was man auch sieht.
AMD hat schon bei den Thema Xbox APU die Füße still gehalten, ebenso Renoir. Es kommt, wenn es kommt und gut.
 
Volker schrieb:
Das wiederum wäre aber Schwachsinn
So ganz daneben war ich aber nicht. Hab ich mir aber schon gedacht weil Zen3 halt mehr polarisiert als die neuen Karten, bzw. wird Zen3 mehr Hype bekommen.

AMD kämpft einfach an allen Fronten und dafür bieten Sie sehr gute Produkte.

Meine Glaskugel sagt das AMD knapp unter 3080 Niveau mit mehr Speicher ist.
 
v3locite schrieb:
Ja mei, so langsam wird's Zeit.
Das monatelange Herumspekulieren über Ampère, Big Navi, PS5 und XSX hatte seinen Reiz, aber allmählich schläft mir dabei das Gesicht ein. 😶
Ja, ich letzter Zeit komme ich mir vor als ob ich die Bunte Lesen würde, ok bei den naked PCB shots vielleicht auch die Blitz Ilu… ;-)
 
Raikunx schrieb:
Zwischen 3070 und 3080 wird das nix. Die 3070 ist so gesehen eine 2080ti, und da kommt AMD bei weitem nicht dran.

Du darfst mich später zitieren....

Wie ich schon seit geraumer Zeit sage, wird die kleinste (wenigsten aktivierte CUs) "Big Navi" schneller als eine RTX2080Ti, wenn man das RTX Gedöns weg lässt. Mit höherer Auflösung steigt sogar der Abstand.

OB eine RTX3070 dann überhaupt immer schneller sein wird, als eine RTX2080Ti, ist auch noch nicht klar und wenn man zusätzlich RTX an macht, ist das mehr als fraglich.

Die Boys und Girls im Keller müssen jetzt echt an der Software Schraube drehen.

mfg
 
  • Gefällt mir
Reaktionen: Raikunx und Cpt.Willard
Hardware_Hoshi schrieb:
-Unnötiges Langes Zitat entfernt-
Wie es richtig geht, ist hier nachzulesen.

Bitte informiere dich Mal wie genau raytracing bei Nvidia funktioniert
Natürlich kostet das shaderleistungs
Das was da ausgelagert wird ist mehr oder weniger nur die Suche
Die eigentliche Berechnung findet im shader statt
Deswegen brechen die Nvidia Karten auch so extrem ein wenn rtx an
Ergänzung ()

Beteigeuze. schrieb:
-Unnötiges Langes Zitat entfernt-
Wie es richtig geht, ist hier nachzulesen.
 
Zuletzt bearbeitet von einem Moderator: (Komplettzitat entfernt)
Zurück
Oben