PHuV schrieb:
... rede ich irgendwas schön? Lesen solle man schon können. Und nochmals nachgefragt, wo kommt Navi irgendwo in die Nähe einer 2080 TI? Und warum mußt Du in einer sachlichen Diskussion unnötig polemisch antworten und reagieren. Wo sind die Fakten?
Hier mal die Postings:
So, nun meine Frage an Dich:
Wo hatten wir in der letzten 5 Jahren 45% Performanceverbesserungen?
Wie will AMD es mit Navi schaffen, 45% mehr Grafikleistung und gleiche Performance/Watt wie eine aktuellen Nvidia 2080 TI zu meistern. Vergleiche ich den Wettlauf der letzten 5 Jahre seit Maxwell, und mache eine vorsichtige Prognose für die nächsten 5 Jahre, wo ist das Problem?
AMD kann physikalisch wie fertigungstechnisch auch keine Wunder vollbringen. Also, wo soll die Mehrleistung schlagartig herkommen?
Da hast Du eleganter Weise Deine Prognose heraus gelassen, dass AMD/RTG in den kommenden 5+ Jahren nichts entgegen zu setzen haben soll, was ich (bestimmt nicht als einziger) als Märchenstunde empfunden habe, denn auf Mutmaßungen oder Wunschdenken kann sich das stützen aber mit Sicherheit nicht auf Fakten oder kannst Du Jahre in die Zukunft blicken?
Ich denke wir kennen beide die Antwort dazu, aber Du möchtest Argumente, die das widerlegen (auch wenn ich nicht die mehr als gewagte These aufgestellt habe und nicht begründen zu haben sollte)?
Gut, da hätten wir in 5 Jahren 2024 und höchstwahrscheinlich schon 5nm Fertigung, so dass Du mit optimierter 14nm (aka 12nm) Fertigung einer RTX 2080Ti trotz aller Optimierung der Architektur (die natürlich auch Grenzen hat) alt aussehen dürftest.
Des Weiteren reden wir hier von Ober- bis Enthusiastenklasse-GPUs bei denen Effizienz traditionell eine untergeordnete Rolle spielt und schiere Rohleistung vordergründig zählt.
Effizienz ist da "nice to have" aber auch nicht ausschlaggebend und wenn nVidia die Architektur ausgereizt hat, dürfte AMD/RTG weiter aufschliessen, etwa vergleichbar im umgekehrten Fall wie nVidia der Leistung nach auf AMD/RTG bei DX12 und Vulkan mit neuen GPU-Generationen aufschliesst.
Des Weiteren ist der Navi10 Chip wie gross und könnte ein Navi20/21 Chip wie gross werden und möglicher Weise wieviel Leistung mitbringen?
Genau, aber das hatte
Duskstalker ja schon richtiger Weise angeführt und auch wenn
KlaraElfer das anzweifelt, dass RDNA2 im Vergleich zur jetzt schon deutlich effizienteren RDNA1 Architektur evt. gut nachlegen kann (ohne Grundlage/Fakten gewiss), so würde ich mich da nicht so weit aus dem Fenster hängen.
Wieso?
Vielleicht weil AMD/RTG sich auch RT-Raytracing für 2020 aufgehoben hat, man evt. dann schon einen Navi10 Refresh in 2020 (mit RX 5750(XT) GPUs) mit RT-Raytracing Support (analog zu den dann kommenden NextGen Konsolen -GPUs - für die aus Kosten-Mann und Effizienz-/Kühlungsgründen keine Grosschips in Frage kommen) bekommen könnte.
Über RDNA2 wissen wir noch viel zu wenig um halbwegs treffende (positive wie negative) Voraburteile fällen zu können.
Was soll das also, die ganze AMD/RTG GPU-Basherei , dass die es ja angeblich eh nicht können (und nie packen werden), auch in 5+ Jahren keine RTX 2080Ti Leistung, auch wenn RDNA1 das m.E. ziemlich eindrucksvoll (besser als von den meisten erwartet, die maximal Leistung zwischen RTX 2060 Vanilla und RTX 2070 Vanilla Niveau prognostiziert haben) widerlegt hat?
Du sprichst von "Kindergarten", aber was ist genau das denn und was ist da bitteschön zweckführend an solchen "Wahrsagungen"?
Zu guter Letzt sollte man die komplette neue RDNA Architektur - von der wir bisher gerade einmal die erste, noch unausgereifteste Variante präsentiert bekommen haben - m.M.n. nicht schon vorverurteilen/zerreden und unterschätzen, wie das zum Teil hier geschieht von selbsternannten Experten.
RDNA könnte evt. ein Kepler Pendant sein und mit der Zeit richtig gut reifen (zumal Compute bewusst hinten angestellt wurde).
Ich würde an AMDs/RTGs Stelle auch schrittweise die GPUs weiter entwickeln, nVidia macht das ja auch nicht anders, als direkt das ganze Pulver zu verschiessen, nur um auf Teufel komm raus für eine Enthusiastennische Preissenkung für nVidia GPUs zu spielen ... es scheint da hat man dazu gelernt, auch wenn es den Nischennutzern nicht gefällt (die aber eben nicht der Nabel der Welt für das Unternehmen sind).
Dass bei nVidia dahingegen auch nicht alles Gold ist, was glänzt, darf aber - wenn es nach einigen hier geht - nicht erwähnt werden ... wenn schon, dann sollte man das fair bewerten und nicht mit unterschiedlichen Maßstäben messen.
Ich hänge mich dann auch gerne aus dem Fenster, dass die kommende nVidia GPU-Generation um einiges lohnender (selbst bei noch höher angesetzten (Mond-)Preisen) als die aktuelle, m.E. eher enttäuschende RTX Turing ("Super" Refresh) Generation sein dürfte, alleine schon wegen der lange überfälligen 7nm(+) Fertigung
.