News Radeon RX 6000: AMD-Benchmarks zeigen mehr als 60 FPS in 4K

Cpt.Willard schrieb:
Und ausgerechnet jetzt kommt NV mit Preis Leistung???? Lol....das erfreut gewiss nicht mal die Anleger - schließlich hat sich turing super verkauft zu den horrenden Preisen

RTX3080 ist zu teuer.

Pascal hat insgesamt gesehen mehr überzeugt als Ampere und das Flaggschiff kostete 720.-€ bei Release (FE)
https://www.pcgameshardware.de/Gefo...on-Custom-Designs-guenstig-lieferbar-1226393/

Jetzt, fast vier jahre später verlangt NV praktisch das selbe für die normale RTX3080 (non-ti) und zieht einen GB ab ? Nein, sorry ! Ich mag NVIDIA aber hier von einem guten Preis-Leistungsverhältnis zu sprechen, hmmmm ?!:smokin:

So viel sollte die RTX3090 aka RTX3080Ti mit 16GB kosten, maximal.

Nicht schön die Entwicklung der vergangen jahre im GPU-segment.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DarkerThanBlack und Cpt.Willard
Moep89 schrieb:
Wenn sie dahinter liegt, dann sollte sie günstiger sein, ja. Speicher ist so eine Sache. Am Ende zählt die Leistung in FPS. Wenn mehr Speicher da auf absehbare Zeit keinen merklichen Vorteil bringt, dann ist er relativ egal.
Und weniger verbrauchen sollte sie auch, denn sonst wäre sie weniger effizient, was immer schlecht ist. Das müsste dann auch über den Preis wieder ausgeglichen werden.

Eine Karte, die weniger leistet und/oder weniger effizient ist als eine andere Karte, aber gleich viel oder mehr kostet, die kaufen nunmal nur Fanboys.

Ich glaube AMD hat in den letzten 4 Jahren ziemlich eindeutig bewiesen, dass sie sehr realistisch auf dem Boden der Tatsachen stehen, gerade was ihre Preispolitik angeht.

Wenn man sich mal vor Augen führt, wo AMD 2016/2017, finanziell und von der CPU und GPU Performance stand, und wo man Ende 2020/->2021 steht, wieder finanziell, und von der CPU Performance als auch der erwarteten GPU Performance, kann man wohl von einer Houdini Leistung sprechen. Gerade weil sie als "Kleinster" im Bunde immer auch zwei Fronten zu kämpfen haben.

Meine eigene etwas flapsige Analogie ist, dass ich AMD im Moment als Aaron Rogers, der CPU und GPU Halbleiterbranche sehe.
 
Ich würde mich an eurer Stelle einfach mal entspannt zurück lehnen und abwarten :D.

Aber ich geb auch gern meinen Senf dazu ^^, denke schon dass dies gestern das Flaggschiff war, sie sagte doch auch, es ist die schnellste GPU die AMD bis jetzt entwickelt hat... und die gebotene Leistung spricht doch auch dafür.

Die theoretischen Rechnungen 5700x x 2 x zusätzliche Effizienz x höherer Takt und was weiß ich, des ist alles an der Haaren herbei gezogen, was se gezeigt haben, war ein realistischer Wert.
 
  • Gefällt mir
Reaktionen: Javeran
sialickiz schrieb:
und zieht einen GB ab ?
das hat mit dem Preis der GPU wenig zu tun, genauso wie das GB wenig mit der Leistung zu tun hat. Schau einfach wo deine 1080 TI heute vergleichen mit der 3080 steht...

Die 3080 is vergleichsweise günstig auf den Markt gekommen, wohl auch weil Nvidia ganz genau weiß was mit der RX6900 Sache is.
 
  • Gefällt mir
Reaktionen: Ebu85 und DonL_
MrChronos schrieb:
Das sollte aber nicht die Masse sein.
Muss man ein wenig unterscheiden. Die Early-Adopter die nun bereit sind das doppelte für die Karten zu Zahlen, die würdest du nicht wirklich abhalten von einem Kauf, manchen von den geht es, wie du selbst schreibst, darum immer das Beste vom Besten zu haben. Wenn AMD in 4 Wochen eine noch bessere Karte vorstellt, wird es manche da geben, die ihre Karten verkaufen und dann da zu greifen. Die meisten in der Gruppe bekommt man nicht.

Dann gibt es die, die nun zugreifen, weil sie zugreifen wollen, von den würde man ein paar vielleicht zum Warten bewegen, aber auch nicht wirklich. Ich habe nun lang genug sowohl PCs zusammen gebaut für Freunde und die Familie als auch in meinem Beruf mit solchen Leuten zu tun. Manche machen es, weil jetzt das Geld da ist und weil es passt, andere, weil sie genau jetzt einen PC brauchen/meinen zu brauchen usw.

Die »Masse«, die aktuell zu greift ist alles andere als Homogen, und das macht es auch immer so schwer. Dein Beitrag, deine Einschätzung gilt primär also erst mal für dich: Wenn dich AMD heute geflasht hätte, denn hättest du gewartet. Du kannst aber nicht für die breite Masse sprechen und auch wenn das jetzt etwas blöd klingt: Die breite Masse an Menschen ist »Dumm«, selbst im Einzelnen. Die meisten Menschen differenzieren nicht, die meisten Menschen sind heute nicht mehr geduldig und die meisten Menschen wollen in der Regel leichte und sofortige Erfolgserlebnisse haben und für mich verwunderlich ist, woraus viele Menschen heute teilweise die Befriedigung ihrer »Gelüste« beziehen.

Und das ist hier genau der Punkt: Selbst wenn AMD jetzt die Kracher Karte angekündigt hätte, es gibt zig Gründe, warum man eben nicht warten möchte, denn Warten ist »doof«. Konsum ist für viele Heute nicht mehr rational, oder kannst du erklären, warum Leute bereit sind bei EBay 1400,- für eine 3080 zu zahlen oder bis zu 2000,- für eine 3090?

MrChronos schrieb:
Würde AMD mit was besserem kommen, würde ich ohne zögern AMD kaufen.
Sowas sagen hier manche immer schnell und doch habe ich bei solchen Leuten immer sehr viele Ausreden gehört, warum sie dann doch zu Anbieter X gegriffen haben, selbst wenn Anbieter Y besser wäre und in dem Fall wäre dann: Ja, ne mir dauert es zulange bis die 6900XT kommt. (Was für mich wiederum einer der besten Begründungen ist!)

MrChronos schrieb:
Hätte AMD gestern +10% Leistung bei den Frames gezeigt, hätte ich erst einmal storniert und bis auf den Navi Release gewartet.
Das gilt für dich, aber selten für die breite Masse. Denn auch hier gilt: Vorgestellt wird Navi2X erst ende des Monats und dann? Wenn man Glück hat, kommen sie im November, vielleicht aber auch erst im Januar? Wer weiß.

AMD wird RDNA2 und Navi2 Ende Oktober vorstellen und dann werden wir sehen, was Sache ist. Für die Leute, die jetzt keine Karte kaufen müssen, ist das genug Wartezeit.

Shoryuken94 schrieb:
AMD hat eine GPU in der Hinterhand die anscheinend über die Shaderzahl gut skaliert und wohl deutlich vor einer 2080Ti liegt. Das ganze wurde in Titel gezeigt, die Ampere auch recht gut liegen.
Vermutlich hat man auch genau deswegen diese Titel gewählt. Aber wenn ich daran bedenke, dass manche der bekannten Pappenheimer hier vor wenigen Wochen noch Steif und fest behauptet haben, dass man ja nicht mal die 2080Ti schlagen wird, weil das absolut unrealistisch wäre.

Ich kringele mich gerade vor Lachen, wenn ich da an so ein paar hier bekannte Gesichter. Jetzt hat man die 2080Ti geschlagen, und nun wird die nächste Argumentationskette geöffnet, warum RDNA2 Scheiße sein wird. Na ich hol mir mal Popcorn und überlege mir mal so ein paar Sprüche zu sammeln.

Shoryuken94 schrieb:
Ob man jetzt eine 3080 ganz erreicht, ist da eher nebensächlich, wenn man sich in der Nähe befindet und das Gesamtpaket stimmt. Das müssen wir nun abwarten. Das gezeigte hat aber definitiv lust auf mehr gemacht, auch wenn wir nicht ganz abschätzen können, welche GPU Konfiguration nun wirklich gezeigt wurde und wie andere Produkte in den Benchmarkszenen abschneiden.
Ich bin echt gespannt, was da nun kommt, wie gut AMD jetzt den N7 in der Hand hat, mit welchen Optimierungen sie bei Navi2 arbeiten, wie sich das Board als ganzes Verhält, der Chip usw.

Ich bin neugierig.


Kacha schrieb:
Aber mich wuerde es auch wundern wenn man das Halo Produkt vorgestellt hat
Man wird halt jetzt weiter abwarten müssen. Möglich ist alles. Aber lieber sollte man jetzt etwas pessimischer ran gehen und sich dann überraschen lassen, als jetzt hochzustapeln, zu offen, dass ein 3090 Killer kommt um dann wieder enttäuscht zu sein.

Kacha schrieb:
Mal davon abgesehen, dass die Unreal Engine eher unterdurchschnittlich auf AMD laeuft. Aber ja, dass ist schon Cherrypicking, wenn man seine Augen und Ohren zuhaelt und "lalala" singt.
Lass ihn, von ihm kannst du in dem Fall keine wirklich gehaltvollen Beiträge erwarten. Er war auch einer der Personen, die vor etlichen Wochen noch behaupteten, dass AMD NIEMALS die Leistung der 2080Ti erreicht und dass das alles unmöglich wäre.

Solchen Leuten musst du auch nicht mit Argumenten kommen, denn diese Leute akzeptieren keine Argumente. Oft fehlt ihnen einfach auch das Wissen dazu, um auf Argumente zu reagieren.


Shoryuken94 schrieb:
Irgendwie erinnert es ein wenig an Kepler. Die GTX 780 war die letzte Big Chip 80er Karte und sie war ähnlich stark beschnitten wie die 3080 heute. Ein voll aktivierter GA102 ist durchaus möglich, allerdings würde ich da nicht viel erwarten.
GA102 hat 10752 Shader bei 84 SM, die 3090 hat 82 SM mit 10496 Shader. Kommen also gerade mal 2 % mehr Shader hinzu. Nein, von so einer Karte kann man dann nicht wirklich viel erwarten. Hier könnte man dann auch nur noch primär sich über eine höhere TBP absetzen und mit der Taktschraube.

Affenzahn schrieb:
Genau DAS wage ich zu Bezweifeln.
[…]
Spricht für die Fachleute hier irgendwas dagegen dass die 3000er "aufgesupert" werden können?
Dann würde ich dir doch mal an der Stelle empfehlen dir die Chips anzusehen:
GA102 hat 7 GPC mit 12 SM, also 84. 3090 nutzt 82 SM, eine Super wäre möglich, aber um sich von der 3090 Abzusetzen braucht es mehr Takt und damit mehr elektrische Energie. Die 3080 nutzt 68 SM, man könnte durchaus eine Super noch bringen, nur der Weg zur 3090 ist schmal, liegen hier ja bereits nur im Schnitt ca. 10 %.

Dazu ist der GA102 recht groß mit 628,4 mm². Man munkelt nicht umsonst, dass NVIDIA wohl einen GA103 auflegen will. Der hätte dann vermutlich 6 GPC und damit 72 SM. Hier könnte eine 3080 Super durchaus »Sinn« ergeben, stehen aber auch nur 5% mehr Shaders auf den Schirm, primär müsste man also auch eine 3080 Super über Takt und damit Leistungsaufnahme über die 3080 prügeln.

Bleibt der GA104: Die 3070 soll von den 48 SM bereits 46 nutzen. Macht also 6144 potenzielle Shader gegen 5888, sind 4%, auch hier muss man dann primär über Takt und Energie gehen.

Was also dagegen spricht, dass NVIDIA die 3000er einfach aufsupert? Recht einfach: GA102 ist fast vollkommen ausgeschöpft, es gibt nur 2 SM, die dazu kommen könnten bei der 3090, bei der 3080 steht ein fiktiver GA103, hier könnten 4 SM dazu kommen, gleichzeitig ist der »Alu« Impact dadurch recht gering, also muss man Takt aufschlagen. Mit Takt steigt ab einem gewissen Punkt der Energiehunger überproportional an. Die 3080 wird für die letzten 4 %-Punkte mit 50 Watt mehr TDP betrieben, also für 4 %-Punkte im Mittel mehr Leistung nimmt man 18 % Energiebedarf in Kauf.

Alle bekannten Modelle sind also quasi am »oberen« Ende ihrer jeweiligen Chips und werden bereits stärker am Limit betrieben, als noch bei TU und erst recht davo Pascal.

3070 => GA104 46 von 48 SM. Was würde Takt bringen, was wäre die Kehrseite davon. Sonst bleibt nur ein GA102/GA103.
3080 => GA102, 68 von 84 SM, hier geht was, aber Takt ist nicht mehr wirklich. Bei einem fiktiven GA103 stehen 68 gegen 72 SM. Frage ist dann auch: Wie viel Takt kann man raus holen, was braucht man an Enegie dafür.
3090 => GA102, 82 von 84 SM, auch quasi nahe an der Grenzen des Möglichen. Mehr Möglich, aber auch hier die Frage, was mehr Takt bedeutet, ansonsten wäre nur noch der Sprung zu einem »fiktiven« GA101 möglich, dann reden wird von 8 oder 9 GPCs und das wäre dann ein wahrer Monsterchip, der von der Größe sogar einen GA100 übertreffen könnten.

Auch möglich wäre: GA204, GA203 und GA202 von »TSCM« mit 7n, aber wie viel der Prozess dann wirklich bringt, dass ist Rätselraten.
Ergänzung ()

Cpt.Willard schrieb:
AMD kann zwar ggü. Presse und Öffentlichkeit sehr gut mauern momentan, doch in den Fertigungen wird es immer Löcher geben, die auch Löcher in den Taschen haben, die Konkurrenten mit viel Knete füllen können - für das ein oder andere Detail.
Muss nicht mal sein, dass bei TSMC da eine Quelle war, sondern es reicht schon für NVIDIA wenn man über Umwege ggf. an finalere DevKits der PS5 und XBox gekommen ist.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: .Sentinel., X8Koenig, Cpt.Willard und 2 andere
Krautmaster schrieb:
das hat mit dem Preis der GPU wenig zu tun, genauso wie das GB wenig mit der Leistung zu tun hat. Schau einfach wo deine 1080 TI heute vergleichen mit der 3080 steht...

Die 3080 is vergleichsweise günstig auf den Markt gekommen, wohl auch weil Nvidia ganz genau weiß was mit der RX6900 Sache is.

Ich habe keine GTX1080Ti, würde nie so viel Geld für eine GPU ausgeben.
Trotzdem muss man sagen das die Preise "fair" waren, verglichen mit RTX2080Ti oder RTX3080.

GTX1080Ti (anfang 2017) stolze 11GB und vier jahre später kurz vorm erscheinen der neuen "NEXT-Gen" konsolen 10GB ?

10GB würden zur GTX1080Ti passen, garantiert nicht zur RTX3080 ! Viel zu flott unterwegs für mickrige 10GB.

Wenn ihr schon so viel Geld für GPU´s ausgibt dann legt ein bisschen drauf, schaltet in den Wartemodus und holt euch die 16GB bzw. 20GB Modelle.

VORPROGRAMMIERT :
Ihr werdet es bereuen und bei jeder dritten Neuerscheinung zittern bzw. euch fragen ob die 10GB ausreichen !
Next-Gen incoming !

Edit :

Krautmaster@
Ja, neue Grafikkarten sind schneller als alte. :heilig:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DarkerThanBlack
Speicher is halt kein "Wünchmirwas". Man kann an das bestehende SI entweder 10 oder 20Gb ranhängen. Deswegen gibts auch bald die 20GB Version.
 
...lieber eine um ca. 7-10% (merkt man nicht) langsamere RTX3070Ti mit 16GB als eine RTX3080 mit 10GB, so sehe ich das zumindest.:)

Bye
 
BOBderBAGGER schrieb:
Also lieber ne 7-10% langsamere rx6000 mit 16gb und <300W als ne 3080 :schluck:

RTX3070Ti (DLSS)
Die GPU wird auch nicht ewig halten aber dank DLSS länger, viel länger. ;)

Die Performancesprünge sind immens und die Bildqualitäts-Unterschiede praktisch nicht vorhanden, nuancen ! Das Haar in der Suppe.

DLSS 2.0 ist Bombe !
 
sialickiz schrieb:
RTX3070Ti (DLSS)
Die GPU wird auch nicht ewig halten aber dank DLSS länger, viel länger. ;)

Die Performancesprünge sind immens und die Bildqualitäts-Unterschiede praktisch nicht vorhanden, nuancen ! Das Haar in der Suppe.

DLSS 2.0 ist Bombe !

Der Titel muss leider auch DLSS haben ;)
 
  • Gefällt mir
Reaktionen: DarkerThanBlack und Cpt.Willard
sialickiz schrieb:
RTX3070Ti (DLSS)
Die GPU wird auch nicht ewig halten aber dank DLSS länger, viel länger. ;)

Die Performancesprünge sind immens und die Bildqualitäts-Unterschiede praktisch nicht vorhanden, nuancen ! Das Haar in der Suppe.
DLSS 2.0 ist Bombe !
DLSS 2.0 ist ein super Feature. Aber ich denke nicht, dass die GPU durch DLSS wirklich langlebiger wird.
Klar, 3 von 10 Spiele laufen dann super aber wenn die Rohleistung knapp wird, laufen die anderen Spiele
trotzdem schlecht. Außerdem muss DLSS 2.0 auch gut umgesetzt werden. Bisher hat soweit ich weiß nur Death Stranding das so gut umgesetzt.
 
Ohne gute DLSS Alternative seitens AMD werde ich leider zu Nvidia greifen. Das ist ein so wichtiges Feature und verschiebt die Benchmark leisten in ganz andere Kategorien. Das wird zukünftig sicherlich öfter eingebaut werden und mit DLSS 3.0 soll es auf jedem Spiel laufen ohne Entwicklungsaufwand.
Ergänzung ()

Maggolos schrieb:
Der Titel muss leider auch DLSS haben ;)

Siehe mein Kommentar. Muss es bald nicht mehr.
 
  • Gefällt mir
Reaktionen: sialickiz
Sminka schrieb:
DLSS 2.0 ist ein super Feature. Aber ich denke nicht, dass die GPU durch DLSS wirklich langlebiger wird.
Klar, 3 von 10 Spiele laufen dann super aber wenn die Rohleistung knapp wird, laufen die anderen Spiele
trotzdem schlecht. Außerdem muss DLSS 2.0 auch gut umgesetzt werden. Bisher hat soweit ich weiß nur Death Stranding das so gut umgesetzt.

Sehr viele kommende AAA-Titel werden DLSS unterstützen :
https://www.gamestar.de/artikel/alle-spiele-mit-raytracing-und-dlss,3333695.html

...und der Performance-Boost ist wie bereits erwähnt enorm :
https://www.gamestar.de/artikel/wie-gut-ist-nvidias-dlss,3360685,seite2.html#control

;)
Ergänzung ()

Karl S. schrieb:
Ohne gute DLSS Alternative seitens AMD werde ich leider zu Nvidia greifen. Das ist ein so wichtiges Feature und verschiebt die Benchmark leisten in ganz andere Kategorien. Das wird zukünftig sicherlich öfter eingebaut werden und mit DLSS 3.0 soll es auf jedem Spiel laufen ohne Entwicklungsaufwand.
Ergänzung ()

Absolut korrekt ! ;)
 
Also sollte die Highend Karte von AMD wirklich ähnlich schnell sein oder etwas langsamer als die RTX3080, dann muss ich sagen Hut ab.

Die RTX 3090 ist ja nicht wirklich viel schneller als die RTX 3080 und in einer ganz anderen Preisregion.

Man stelle sich vor, die AMD Chips würde sich dann noch gut übertakten lassen... Dann wir AMD nicht nur wegen dem P/L Verhältnis gekauft, sondern auch wegen der Leistung.

So wie ich es verstanden habe sind die Ampere Karten ja nicht sonderlich OC-freundlich.

Ich freue mich schon darauf, wenn die Highendkarten endlich erschwinglich werden :-D. Danach siehts nämlich aus.
 
sialickiz schrieb:
RDNA2 muss erstmal an GTX1080 Ti vorbei.
Ach komm, dass schafft Big Navi locker. Auch die 2080 Ti wird überholt. Merke die meine Worte: Big Navi kommt mit RTX 3080 Leistung, vielleicht 5% langsamer.

Das sind die 5% die NVidia durch den Mehrverbrauch noch erkämpft hat.
 
  • Gefällt mir
Reaktionen: danyundsahne
Es wird doch auch am Ende darauf rauslaufen, vergleich doch einfach mal die Werte, Nv hat mit Ampere, Turing ca 30 % mehr Leistung verpasst. Die 5700x war ca auf dem Niveau einer 2070 Super... doppelte Shader, nicht lineare skalierung etwas mehr Takt, kommen wir recht genau auf die 3080.

Vorteil: wahrscheinlich sparsamer, mehr Speicher.

Preis: wird auf dem selben Niveau wie die 3080 liegen

Nachteil: wie es hier jeder schon zitiert, ja Dlss ist einfach gut, des hat se einfach nicht und wenns ein Spiel unterstützt, spielt der Speicher der 3080 und 3070 keine Rolle mehr😶.
 
Confidential schrieb:
Somit wette ich auf folgende Sortierung:
RTX 3080 20 GB (85%) - 900 EUR
RTX 3080 11GB (85%) - 700 EUR

RX 6800 16GB (78%) - 700 EUR
Also erstmal müssten die 3080FE ausreichend lieferbar sein!? (übrigens hat die 3080= nur 10GB)
NVIDIA limits GeForce RTX 3090/3080 Founders Edition US sales to BestBuy - VideoCardz.com
(hinzu kommt die schlechte Qualität=Spulenfiepen bei vielen Usern)

Momentan ist eher zu befürchten, das AMD die Marktpreise einer Custom3080 zugrunde legt solange die FE nur ein Papierphantom ist.(von daher kanns auch bei 799$ landen)

btw.
Ob NV die 20GB überhaupt in absehbarer Zeit ausreichend liefern kann und mit welchem Powerlimit ist eh ungeklärt.
(im Vgl. 3090 zu 3080 scheint der größere Vram auch noch ein paar W zu kosten)
ergo
Wäre u.U. die 6800 mit nem reichlichen Powerlimit ne gute Wahl für Tuner.(in P/L-Hinsicht)
Ergänzung ()

alne24 schrieb:
Die FPS Zahlen die von amd angegeben sind stimmen zu 100%, das ist Fakt.
ABER -> Keiner weiß wie diese entstanden sind
Dannn schau nochmal genau hin, das sind bei B3+G5 die normalen Benchmarks, die jeder User bei sich laufen lassen kann.
COD MW ist eh nur wichtig gewesen, um zu zeigen das der neuartige Cache mit der kleineren Speicherbandbreite gut funzt.(net auf die Goldwaage legen)
 
Zuletzt bearbeitet:
Teralios schrieb:
Ich kringele mich gerade vor Lachen, wenn ich da an so ein paar hier bekannte Gesichter. Jetzt hat man die 2080Ti geschlagen, und nun wird die nächste Argumentationskette geöffnet, warum RDNA2 Scheiße sein wird. Na ich hol mir mal Popcorn und überlege mir mal so ein paar Sprüche zu sammeln.

Oh ja, das ist mitterlweile echt gute Comedy. Aehnliches, auch wenn nicht mehr so stark, kommt auch immer noch bei CPUs. Natuerlich von den gleichen Personen.

Teralios schrieb:
Man wird halt jetzt weiter abwarten müssen. Möglich ist alles. Aber lieber sollte man jetzt etwas pessimischer ran gehen und sich dann überraschen lassen, als jetzt hochzustapeln, zu offen, dass ein 3090 Killer kommt um dann wieder enttäuscht zu sein.

Klar kann es das Topmodell gewesen sein, allerdings haetten sie dann auch gleich die Katze aus dem Sack lassen koennen. Aber gut, die ganze Spekulation hier ist eh teil des Marketings. Und im Gespraech ist AMD jetzt auf jeden Fall. Das war schon ziemlich genial gemacht, wenig trarara, nur ein: hier habt ihr etwas zu Big Navi, Rest kommt 28.10. Wobei mir die Praesentation allgemein um einiges besser gefallen hat als die von Nvidia. Mehr Ruhe und Stil als dieser Gam0r Mist. Aber die Koerpersprache von Mark Papermaster kann man auf jeden Fall mit awkward beschreiben. Kommt aber sympathischer rueber als

Teralios schrieb:
Lass ihn, von ihm kannst du in dem Fall keine wirklich gehaltvollen Beiträge erwarten. Er war auch einer der Personen, die vor etlichen Wochen noch behaupteten, dass AMD NIEMALS die Leistung der 2080Ti erreicht und dass das alles unmöglich wäre.

Solchen Leuten musst du auch nicht mit Argumenten kommen, denn diese Leute akzeptieren keine Argumente. Oft fehlt ihnen einfach auch das Wissen dazu, um auf Argumente zu reagieren.

Ist mir schon klar, er wird mir auch niemals antworten. Der Typ hat sich schon Nvidia in Pulverform durch die Nase gezogen. Darum geht es mir auch weniger. Es gibt leider genug Leute, die das dann doch lesen und in seine Richtung tendieren. Ohne Klarstellung, dass da einfach nur Bullshit steht glaubt man das eher. So steht zumindest etwas an Korrektur da.

Dass er keine Ahnug hat von was er redet ist zwar Leuten offensichtlich, die sich damit etwas auskennen, aber eben nicht allen.

Teralios schrieb:
ansonsten wäre nur noch der Sprung zu einem »fiktiven« GA101 möglich, dann reden wird von 8 oder 9 GPCs und das wäre dann ein wahrer Monsterchip, der von der Größe sogar einen GA100 übertreffen könnten.

Ziemlich zweifelhaft, dass sich Nvidia das auf dem Samsung Prozess antut. Die Yields waeren wohl absolut unterirdisch, so, dass es sich kaum lohnen wuerde. Bzw. der Vollausbau des GA102 kommt ja in den professionellen Karten mit 48GB auf den Markt.

Teralios schrieb:
Auch möglich wäre: GA204, GA203 und GA202 von »TSCM« mit 7n, aber wie viel der Prozess dann wirklich bringt, dass ist Rätselraten.

Da koennen sie aber gleich eine neue Generation auflegen bei dem Aufwand. Man kann zwar etwas vom A100 uebernehmen, aber nicht alles. Zudem muss man das ganze testen. Mal davon abgesehen, dass die Kapazitaeten nicht da sein werden. Von den Kosten alleine duerfte das 300-500 Millionen kosten. Da macht es mehr Sinn die derzeitige Generation erstmal so wie sie ist zu verkaufen und dafuer zu sorgen, dass die naechste Generation besser laeuft. Mindshare und Image hat Nvidia, die brauchen sich keine Sorgen machen, dass ihnen niemand ihre Karten abkauft.

Bzw, ich habe mich die letzten Tage umgeschaut von wegen Deep Learning mit AMD und es scheint so als haette jemand ein tensorflow-rocm Package fuer Python, dass aktuell ist. Ich frage mich nur von wem das kommt, da das Repository von AMD noch auf 2.1 ist und nicht 2.3.1. Einziger Wehrmutstropfen, ROCm laeuft derzeit nur unter Linux und Windows WLS2 mit GPU Passthrough dauert noch. Bzw, selbst dann hat das Tensorflow DirectML Package von Microsoft nur Tensorflow 1.15. Aber es sieht um einiges besser als zu Zeiten von Vega aus.
 
cypeak schrieb:
ob es diesen refresh bei tsmc geben wird; das ist tatsächlich spekulation.
was es (laut gerüchten) geben soll, ist ein ga103, welcher die gleichen eckdaten hat wie die ausführung der 3080; allerdings als ein kleinerer non-salvage chip, der für nvidia wohl insgesamt günstiger wäre.

Ich glaube ehrlichgesagt nicht an einen TSMC Refresh. Der Aufwand dürfte hier zu groß sein. Ein Schwenk zu TSMC wird sicherlich mit deutlich ehr Optimierung verbunden sein, wenn man eh noch mal viel Zeit und Geld investiert. Ich denke tatsächlich, dass Nvidia diese Generation aussitzt. Sie müssen nicht befürchten, dass Big navi deutlich vorbeizieht und selbst wenn es hart auf hart kommt, können sie die Durststrecke mit Marketing wettmachen.

Ich denke das Budget steckt Nvidia lieber in den möglichst baldigen Release der nächsten Generation. Evtl. können wir den zwei Jährigen Zyklus hier etwas unterbieten.

Ein GA103 könnte ich mir vorstellen. Wobei dieser nicht ganz die Eckdaten der RTX 3080 haben wird. Der GA103 wird dann 6 GPC Cluster zu je 12SMs besitzen. Sprich der Chip käme auf maximal 72 SMs. Evtl. mit nativem 320 Bit Speicherinterface.

Daraus könnte man dann sowohl eine günstige RTX 3080 ableiten, als auch eine eventuelle Ti, die dann auf 72 SMs kommt. Sind zwar auch nur ~6% mehr, aber Nvidia mag ja auch kleine Sprüge.

cypeak schrieb:
ich kann mich nur wiederholen: wenn big navi es vermeiden kann in die gleiche bresche zu schlagen wie die 5700er - welche unterhalb des sweetspots für enthusiasten hing und preislich oberhalb des wirklichen massenmarktes - dann könnte preisleistung am ende stark zu gunsten von amd ausschlagen.

Ja ich denke die 40 CUs waren einfach etwas zu wenig bei Navi 1. Damit lag man Leistungsmäßig zu sehr vom oberen Ende entfernt. Der 400€ Bereich ist tatsächlich schwierig. Navi 1 war zu teuer um als Polarisnachfolger anzutreten und zu langsam um in der Oberklasse wirklich zu wildern.

Aber Da AMD RDNA2 wohl recht breit aufstellen wird, hoffe ich auf vernünftige Karten in allen Klassen.

cypeak schrieb:
ich gehe davon aus dass rdna2 wegen des besseren fertigungsprozess' bei der energieeffizienz besser ist und weniger aufwand bei der kühlung benörigt.

Die gesamtenergiemenge dürfte niedriger sein. Man muss mal schauen, wie es mit der Energiedichte aussieht und wie hoch die Packdichte von Desktop RDNA2 ist. Denn das ist ja heute eher das Problem. Ich denke deshalb nutzt die PS5 auch Flüssigmetall.

Mal schauen, aber schon Navi hatte gewisse Probleme mit der Hotspottemperatur. Mal schauen, wie das jetzt aussieht. Die Energiedichte dürfte aber durch den größeren Die kleiner ausfallen.

cypeak schrieb:
die uhd suppe wird meiner ansicht nach zu heiß gekocht: mit abstand die meisten gamer sind noch auf fhd und wqhd unterwegs und wollen hier die regler bedenkenlos auf maximum drehen können...


Sehe ich auch so, UHD ist zur Beurteilung der GPU Leistung heute aber am besten geeignet. WQHD dürfte im Oberklassebereich heute noch immer sehr verbreitet sein, genauso wie UWQH. Und da sehe ich die aktuelle GPU Leistung auch sinnvollerweise, denn mit den aktuellen GPUs kann man in WQHD super hohe Frameraten mit guter Qualität verbinden. 4K ist möglich, aber selbst die 3090 ist da nicht uneingeschränkt nutzbar und ich habe das Gefühl, dass hohe Hz Zahlen mittlerweile vielen sehr wichtig sind und UHD um die 60Fps vielen nicht ausreichen, zumal das bei Currentgen Titel erreicht wird.
 
Zurück
Oben