Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Nvidia „GA102-250“: Gerücht zu Big-Navi-Konter zwischen RTX 3080 und 3090
- Ersteller Volker
- Erstellt am
- Zur News: Nvidia „GA102-250“: Gerücht zu Big-Navi-Konter zwischen RTX 3080 und 3090
Gr33nHulk
Commodore
- Registriert
- Mai 2007
- Beiträge
- 4.831
Seit dem Release der 3080 war genau dieser Verlauf oft genug angedeutet und auch so verfolgt sowie kommentiert worden!
Early Adopter abgesahnt, frühzeitig mit dem zu geringen VRAM auf den Markt, genau gewusst wie der Hase läuft sobald AMD released und gelassen die unnötige 3080 (später gleiches Spiel mit der 3070) fallen lassen um aufpolierte neue Modelle zu bringen, welche sowohl an Leistung sowie VRAM das bringen, was hätte von Anfang an sein sollen......um auch nun überhaupt gegen AMD gut da zu stehen.
Von der ersten Sekunde an hat Ampere danach gestunken, dazu noch dieser miese Paperlaunch.......auch wenn ich Nvidia bevorzuge, daß ist diesmal unter aller Sau und für Leute die es einfach nicht sehen oder kapieren wollen, ziemliche Grütze.
Early Adopter abgesahnt, frühzeitig mit dem zu geringen VRAM auf den Markt, genau gewusst wie der Hase läuft sobald AMD released und gelassen die unnötige 3080 (später gleiches Spiel mit der 3070) fallen lassen um aufpolierte neue Modelle zu bringen, welche sowohl an Leistung sowie VRAM das bringen, was hätte von Anfang an sein sollen......um auch nun überhaupt gegen AMD gut da zu stehen.
Von der ersten Sekunde an hat Ampere danach gestunken, dazu noch dieser miese Paperlaunch.......auch wenn ich Nvidia bevorzuge, daß ist diesmal unter aller Sau und für Leute die es einfach nicht sehen oder kapieren wollen, ziemliche Grütze.
Anon-525334
Banned
- Registriert
- Dez. 2010
- Beiträge
- 1.478
Vielleicht nimmt die Geschichte so ein Anfang wie mit dem ersten Ryzen.
F
foo_1337
Gast
Das prognostizierte "Super-Gau" Szenario. Also dass ihnen aufgrund AMD in dieser Saison die Verkäufe massiv einbrechen.=TR= schrieb:@foo_1337
Welches Szenario? Und warum soll es nicht eintreffen?
Im Grunde gehts ja nur darum alle Optionen zu kennen bevor man sich festlegt. Ist ja auch eine P/L Frage.
Sly123 schrieb:Meine es auch absolut neutral.
Man sollte sich einfach keine großen Hoffnungen auf Billigpreise machen.
Für mich ist bspw. eine 6800/6700XT interessant, da ich noch lange nicht bei 4K angekommen bin.
Generell alles was in den Bereich 300-350€ fällt.
Für mich auch, ich hoffe auf eine rdna2 Karte die bei ~400€ liegt und noch dieses Jahr verfügbar ist. Dazu würde ich den 5600x wählen.
Persönlich tippe ich ja darauf, dass die "Spürnase", die bisher anscheinend bei AMD tätig war, schlicht inNitschi66 schrieb:Wie hat es AMD geschafft, die Informationen scheinbar so gut unter Verschluss zu halten?
Rente gegangen ist - vermutlich mit einer größeren Villa als sein Gehalt erlaubt hätte
Bin ich der Einzige, der all diese Jahre dieses Gefühl hatte?
S
Schwammerl
Gast
Ich denke das doch einige immer noch wartende 3080 Käufer abwandern werden.
Das große Chaos für NV wird aber ausbleiben.
Eine 3080 mit 20-gig wird auch nicht erscheinen, kann man damit ja gleich zwei normale 3080er bestücken.
Und genau das ist das selbstgestellte Bein bei NV, Speichergeiz und trotzdem keine Verfügbarkeit.
Als 5700XT-User muss ich sagen das ein Upgrade von 8 Gb auf wieder eine Karte mit nur 8 Gb (3070)
irgenwie kein Upgrade sind. Egal welche Werte die Karte auf dem Papier zaubert. Seinen Arbeitsspeicher von 16 Gb 3000 auf wieder 16Gb 3600 aufrüsten hat für mich in etwa das selbe Potential aber es bleiben nur 16 Gb.
Eine Radeon mit 16Gb,und soll sie auch etwas langsamer als eine 3080 sein, schmeckt mir im Jahr 2021 schon besser. Eine 3070 mit 12Gb würde ich aber genauso begrüßen.
Das große Chaos für NV wird aber ausbleiben.
Eine 3080 mit 20-gig wird auch nicht erscheinen, kann man damit ja gleich zwei normale 3080er bestücken.
Und genau das ist das selbstgestellte Bein bei NV, Speichergeiz und trotzdem keine Verfügbarkeit.
Als 5700XT-User muss ich sagen das ein Upgrade von 8 Gb auf wieder eine Karte mit nur 8 Gb (3070)
irgenwie kein Upgrade sind. Egal welche Werte die Karte auf dem Papier zaubert. Seinen Arbeitsspeicher von 16 Gb 3000 auf wieder 16Gb 3600 aufrüsten hat für mich in etwa das selbe Potential aber es bleiben nur 16 Gb.
Eine Radeon mit 16Gb,und soll sie auch etwas langsamer als eine 3080 sein, schmeckt mir im Jahr 2021 schon besser. Eine 3070 mit 12Gb würde ich aber genauso begrüßen.
Die Gerüchteküche brodelt hoch. Ohne dass AMD wirklich etwas erzählt hat.
Das wird morgen abend wirklich interessant.
Aber vorher irgendwelche Gerüchte über Nvidia zu bewerten ist witzlos.
Nochmal, angesichts der Vorgeschichte wäre es gut wenn AMD mit dem Vollausbau der 3080 nahe kommt.
Alles besser ist über den Erwartungen, alles schlechter ist unter den Erwartungen.
Und erst nach den unhängigen Tests wissen wir wirklich Bescheid.
Was hier einige vollkommen ignorieren:
So long
Das wird morgen abend wirklich interessant.
Aber vorher irgendwelche Gerüchte über Nvidia zu bewerten ist witzlos.
Nochmal, angesichts der Vorgeschichte wäre es gut wenn AMD mit dem Vollausbau der 3080 nahe kommt.
Alles besser ist über den Erwartungen, alles schlechter ist unter den Erwartungen.
Und erst nach den unhängigen Tests wissen wir wirklich Bescheid.
Was hier einige vollkommen ignorieren:
- Es ist für Nvidia und AMD kein Spiel, wo man einfach mit Zahlen spielen kann. Es geht um Chips, die man herstellen muss und die Kosten verursachen.
- Mit dem Design Mal eben von Samsung zu TSMC zu wechseln wird nicht gehen.
- So wie es momentan aussieht hat AMD die kleineren Chips und das einfachere Design für die Karten.
- Die Angaben über die Ausbeute sind reine Spekulation.
- Welche Produktionskosten ein Chip hat, hängt nicht nur von den Kosten des Wafers ab. Aus einem teuren Wafer kann man billigere Chips bekommen wenn entsprechend die Chipgröße kleiner und die Ausbeute besser sind.
- Man sollte überlegen, warum Nvidia solange auf 12/14 nm geblieben ist. Kann es sein dass sie ein Design hatten, dass für diese Prozesse optimal war und dass sie dies nicht so einfach auf die Prozesse mit kleineren Strukturen übertragen konnten?
- Es kommt darauf an welche Kapazitäten AMD für die Navi 21 und 22 eingeplant hat. Kann AMD viele Chips verkaufen mit dem sie können einen größeren Marktanteil bedienen werden sie Marge für Marktanteil opfern. Wenn sie nur kleine Stückzahlen haben werden sie ihre Margen optimieren.
So long
F
foo_1337
Gast
ETI1120 schrieb:
- Mit dem Design Mal eben von Samsung zu TSMC zu wechseln wird nicht gehen.
- Man sollte überlegen, warum Nvidia solange auf 12/14 nm geblieben ist. Kann es sein dass sie ein Design hatten, dass für diese Prozesse optimal war und dass sie dies nicht so einfach auf die Prozesse mit kleineren Strukturen übertragen konnten?
A100 läuft bereits in 7nm bei TSMC. Und Gerüchten zufolge wurde GA103 für den 7nm Prozess designed.
ETI1120 schrieb:Die Gerüchteküche brodelt hoch. Ohne dass AMD wirklich etwas erzählt hat.
Das wird morgen abend wirklich interessant.
Aber vorher irgendwelche Gerüchte über Nvidia zu bewerten ist witzlos.
Nochmal, angesichts der Vorgeschichte wäre es gut wenn AMD mit dem Vollausbau der 3080 nahe kommt.
Alles besser ist über den Erwartungen, alles schlechter ist unter den Erwartungen.
Und erst nach den unhängigen Tests wissen wir wirklich Bescheid.
So long
Ich gebe dir in vielen Punkten Recht und bin deiner Meinung aber was die Erwartungen an das High-End Segment angehen, sehe ich das grundsätzlich anders und es sollte von Anfang an klar gewesen sein mit einem Big Navi Chip sich mit der jeweiligen Konkurenz High-End Grafikkarte zu messen. (+/- 5-10% Leistung).
Wie ich schon mal dazu geschrieben habe:
Alleine an der Bezeichnung 5700XT war klar, dass es eine Mittelklasse Grafikkarte ist. Deswegen war RDNA1 keine Konkurrenz für das High End Segment.
In der Mittelklasse war sie fast überall Preis-Leistungssieger und in Tests auch teilweise vorne oder nur leicht langsamer.
Ja, AMD hatte letztes Jahr kein High End zu bieten, aber es wird eine bewusste Entscheidung gewesen sein. Auch davor die Jahre hat man den Fokus auf den Mainstream gelegt und nicht auf High End, weil die Architektur es auch nicht hergab. Vega war ein Experiment was die Leistung nicht immer auf die Straße bringen konnte.
Aber warum haben sie wohl letztes Jahr keine 5800 oder 5900 auf den Markt gebracht?
Meiner Meinung nach nicht aus Schwäche, sondern weil sie gemerkt haben was man aus RDNA machen kann und nach den ersten Runde mit der 5700er das Potenzial erkannt haben.
Aufgrund der Stärke im CPU Bereich, als auch die Kooperation mit den Konsolen, sind da bestimmt die ein oder anderen Ideen zur neuen Architektur eingeflossen. Ich denke durch Raytracing und DLSS und die Anpassungen für die Konsolen wollte man dies auch in der Premium/High-End Klasse bieten, was letztes Jahr vermutlich zu knapp wurde und man in Ruhe die Architektur überarbeiten wollte.
AMD setzt doch auch mit dem CPU den Fokus mit der Ihrer Ansage ganz klar auf die Gamer dieses Jahr.
Natürlich passt zu dieser Strategie auch die passende Grafikkarte - auch im High-End Bereich.
Könnte ja auch alles Strategie gewesen sein.
Wenn AMD sich mit einer 6800er Karte zurück meldet, ist natürlich der Fokus auf das Gegenstück 3080 zu legen. Die Namensgebung gibt es nicht umsonst...
Also ja, warum sollte man AMD das nicht zutrauen hier gleichwertig oder besser zu sein?
Die Vergleiche mit der 5700er hinken, da es nie eine High End Karte war. Natürlich kann man hier einen deutlichen Leistungssprung erwarten und diese Karte nicht immer als Ausgangsbasis für das High-End Segment nehmen.
RichieMc85
Lt. Commander
- Registriert
- Dez. 2011
- Beiträge
- 1.280
mc_ace schrieb:Ich habe einen 4K Freesync HDR Monitor...
War auch gar nicht so teuer.
Und der hat Local Dimming? Und richtiges HDR mit über 1000 Nits? Oder eher so ne 8 Dimming Zonen 600 Nits Kundenverarsche
RichieMc85 schrieb:Und der hat Local Dimming? Und richtiges HDR mit über 1000 Nits? Oder eher so ne 8 Dimming Zonen 600 Nits Kundenverarsche
Er kann 4K, HDR10 und hat Freesync - reicht das nicht?
Das zu einem guten Preis.
Muss man immer das Beste und das Teuerste haben?
Du hast geschrieben, dass es so etwas nicht als Freesync gibt. Doch gibt es.
Ich nutze es. Mehr will ich damit gar nicht sagen.
nr-Thunder
Commodore
- Registriert
- Sep. 2009
- Beiträge
- 4.536
mc_ace schrieb:Er kann 4K, HDR10 und hat Freesync - reicht das nicht?
Nein, weil HDR400 Fake HDR ist, einfach der Monitor auf 100% Helligkeit ohne Dimming Zone, und mit HDR nichts zu tun hat. HDR10 ist übrigens nicht die HDR-Zertifizierung deines Bildschirms, sondern nur ein Videoformat. Du sagst ja auch zu deinem 4k TV/Monitor nicht, dass er ein HEVC fähiges Panel hat.
Man könnte fast jeden Monitor/TV für HDR400 zertifizieren, was auch genauso gemacht wird. Genauso wie ich mir einen Adelstitel für 50€ kaufen kann, ohne adelig zu sein. Da hat er schon recht mit seiner Bemerkung.
Ähnliche Themen
- Antworten
- 58
- Aufrufe
- 13.869
- Antworten
- 462
- Aufrufe
- 75.485
F