News Gaming Ampere mit 8 GB: Nvidia verschiebt GeForce RTX 3070 um zwei Wochen

.Sentinel. schrieb:
Das soll keine Entschuldigung für irgendetwas sein, jedoch solltest gerade Du alter Hase da eigentlich ein wenig "lockerer" bzw. eher in Erwartung dieser Umstände sein.
Das Spielchen machen wir doch inzwischen zu lange mit, als dass uns das noch überraschen könnte, oder?


Vielleicht triggert mich auch genau das, dass jemand wie Du @.Sentinel. , der gut abstrahieren kann, dann Zeile für Zeile in Zitatblöcken das Marketing von Nvidia verteidigt, denn sei mal ehrlich: Wenn Du immer wieder erklären und rechtfertigen muss, "wie" genau Nvidia das "meinte" und man hat zu allem Sternchen mit Anmerkungen, ist das nicht sehr auffällig genau das, was ich anprangere: Dogmen und Postulate, die der Realität nicht standhalten.

Nvidia hat beim 8K Gaming kontrollierte Benchmarks mit erkauften Videos präsentieren lassen.

Control nativ dann unter 30 fps war der Beweis: Vergiss es.

Sicher kann man Battlefield 3 von 2011 heute 8k spielen, und nach Nvidias Logik war die 970 auch eine 4K karte, da kann ich Dir auch benchmarks zeigen.

Mich irritiert, wenn gestandene CB Member hier Nvidias bullsh*t verteidigen und dann sagen "jaaa, Marketing".
Nennen wir, was es ist: Übertreibung, die Unwahrheit und in Facetten schlicht gelogen, wenn man das Reduzierte wörtlich nimmt.

Biggest Generational leap ist gelogen. Twice the performance as the 2080 ist auch gelogen.

Wieso muss man das verteidigen, wenn das selbst in der Presse der Konsens ist, auch wenn man das "so" nicht formulieren kann, sondern sachlicher. Wir sind hier aber nicht Redakteure.

Einer der Tech Youtuber sagte es ja abstrakt: Ampere ballert schön viel und mehr fps, aber auch das reicht nicht für 4K Ultramax, solange der Rettungsanker DLSS nicht da ist.

Wie RDR2 und Metro Exodus werden wohl Cybwerpunk und GTA VI und Battlefield VI ganz andere Kaliber, die Ampere nicht mehr so gut aussehen lassen (edit: Für die 4K Transition mit großem way above 60 avg fps headroom) wie die easypeasy engines von Doom und Forza.

Ansonsten bin ich mit Dir, wie so oft, ja generell einer Meinung. Aus meiner persönlichen fps ultramax Junkie Sicht hat mich Ampere nur nicht so beeindruckt wie ich gehofft hatte. Die 2080Ti ist dafür ggf zu stark oder die 3080 und 3090 dann aus meiner Sicht zu schwach wenn ich sehe, wie auch die "BFGPU" Meme GPU Federn lässt in den Titeln, die Nvidia nicht mehr im best case dastehen lassen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: aldaric, PS828, .Sentinel. und eine weitere Person
RuhmWolf schrieb:
Wenn das stimmt, dass du vor hast die Grafikkarte 5-7 Jahre zu nutzen und meinst, dass 8GB ausreichen, dann hast du anscheinend nie eine GTX 680 gehabt. Mich hat Nvidia mit der Grafikkarte "geheilt" ;) Die 2GB haben ihr das Genick gebrochen. Die GPU wäre ausreichend schnell gewesen, aber der Speicher hat einem einen Strich durch die Rechnung gemacht.

Zu Zeiten der Test lag sie 10% vor der 7970 und nicht mal drei Jahre nach Release hatte sich das Blatt komplett gewendet. Da lag sie overall betrachtet hinter der 7970 und so manche Titel waren ziemlich böse: zum Beispiel GTA V, da kam man mit einer GTX 680 unter FullHD nur auf 13fps wohingegen die 7970 mit gleichen Settings bei über 40fps gelandet ist! (Max, Ultra, 2xAA)

Also ich hatte ne Geforce 3, dann eine Geforce 4 MX, dann eine 460 GTX, dann eine 670 und jetzt eine 1070.

Jeder dieser GPUs habe ich nur aufgrund der Chipleistung ausgetauscht und nie wegen VRAM. Und dies auch immer nach der geplanten Einsatzzeit. Ich stelle die Spiele halt immer so ein dass sie gut laufen. Dafür gibt es ja die Grafikmenüs. Ich bin auch nie sauer wenn ich nach 3 Jahren nicht mehr alles auf Max stellen kann. Den Anspruch hab ich gar nicht, und darum empfinde ich das auch nicht als Negativpunkt.

Tomsenq schrieb:
Warum kauft man dann nicht einfach AMD?

AMD hat kein DLSS, kein CUDA, kein NVENC.
Dafür hat AMD seit dem Release der ersten neuen Treiberserie anfang des Jahres Probleme mit Blackscreens, Hängern, Instabilitäten die durch Changelogeinträge nachgewiesen auch wirklich dort begründet waren und nicht an den Usern oder Karten an sich lagen.

Kurz: AMDs Grafiksparte genießt bei mir kein Vertrauen dahingehend, dass ich mit einem Kauf zufrieden, geschweige denn glücklich sein werde. Wenn ich z.B. hier bei CB zu den Treibernews nicht jedes Mal lesen muss was bei den Usern nun wieder nicht geht oder was immer noch nicht gefixt ist, sondern mehrheitlich zufriedene, positive Rückmeldungen lese, wird das Vertrauen wieder zurückkommen.
Bis dahin sehe ich keinen Grund von nVidia-Karten wegzugehen. Am Ende gehts eh nur um ein paar Euro mehr oder weniger, wenn man ehrlich ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DagdaMor, CrustiCroc, xexex und eine weitere Person
@seek222 setz mal den alu hut ab, auf amazon gabs allein von der zotac trinnity 40.000 bestellungen, nvidia brauch sich um absatzzahlen absolut 0 sorgen machen.
 
Tja, bei Newegg scheint es wieder ein neues RTX 3080 Verkaufsdrama gegeben zu haben, dabei handelte sich um die ersten Aorus Master RTX 3080 Modelle, also Premium-/Topmodelle, die wohl komplett bei Scalpern gelandet sein sollen (die aktuell dafuer mehr als den doppelten Verkaufspreis zum Wiederverkauf ansetzen), weil der von Newegg bereit gestellte Link wohl nicht funktiniert hat und im Laufe von 10min komplett alles aufgekauft worden ist, bevor ein funktionierender Link dann doch nich bereit gestellt wurde.

Dementsprechend kann man sich den Shitstorm vorstellen, der bei Gigabyte und nVidia in (Sub-Reddit-)Foren mit Drohungen eskaliert ist.

Dieser RTX Ampere Launch und dass man Scalpern und Bots wohl nichts entgegen zu setzen hat (Leute trotzdem fuer diese exorbitanten Preise diese GPUs erstehen, anstatt aus Prinzip diese asozialen Scalper/Bot-Shopper auf Ihrer Ware sitzen zu lassen) ist schon ziemlich deprimierend fuer viele, wie es scheint.

Bei den Konsolen-Marktstarts war mit aehnlichem zu rechnen sein, aber zumindest sind die Vorbestellungen ja da schon besser ueber die Buehne gegangen - so habe ich den Eidnruck - auch wenn natuerlich einige Abzocker wieder Mehrfachordern eingereicht haben, um andere (Dumme) zu den offiziellen Next-Gen Konsolen Marktstarts dann mit Nepp-Angebotspreisen abzuziehen.
 
DocWindows@

Wieso sollte man Kompromisse eingehen wollen, wenn die Konkurrenz die kompromisslose Lösung mit 12GB
zu einem besseren Preis, ähnlicher Effizienz, Performance etc. liefern wird?

Zur Zeit stellen die PS4 / XBOX one die gemeinsame Ausgangsbasis mit je 8GB Speicher, wovon je 5GB als Vram Verwendung finden dar.
Zusätzlich gibt es noch die XBOX one X die bereits 12GB hat.

Aber gerade in Anbetracht der kommenden Konsolen: "Stichwort PS5 (16GB Total) / XBOX Series X 16GB (10GB VRAM)", wird die gemeinsame Ausgangsbasis mal eben verdoppelt.

Gerade wenn man sieht das es die Spiele die mehr als 8GB benötigen bereits heute schon gibt, ist die mangelnden Speicherausstattung der 3070 eigentlich nicht zu tolerieren.

Das geht doch jetzt mit den next Gen. Games ratzfatz und man wird die Grafikeinstellungen deutlich unterhalb der next Gen. Konsolen einstellen müssen.

Da sind die 12GB der kommenden Mittelklasse (NAVI 22, 40CU, ca. 2.5GHz, 12GB) bereits jetzt, um nicht zu sagen in naher Zukunft die weitaus bessere Wahl.
 
  • Gefällt mir
Reaktionen: Chismon
ArrakisSand schrieb:
Wieso sollte man Kompromisse eingehen wollen, wenn die Konkurrenz die kompromisslose Lösung mit 12GB
zu einem besseren Preis, ähnlicher Effizienz, Performance etc. liefern wird?
Mag mir deine Glaskugel auch die Lottozahlen vorhersagen?

ArrakisSand schrieb:
Das geht doch jetzt mit den next Gen. Games ratzfatz und man wird die Grafikeinstellungen deutlich unterhalb der next Gen. Konsolen einstellen müssen.
Wenn, dann nur die Texturdetails. Mit den anderen Settings wird man über den Next Gen Konsolen liegen... Geht ja bei der PS5 sowieso schon gut los, mit den ersten Titeln, die nur "dynamisches 4k" oder 4k mit 30fps versprechen.
 
  • Gefällt mir
Reaktionen: McFritte
Laphonso schrieb:
dann Zeile für Zeile in Zitatblöcken das Marketing von Nvidia verteidigt, denn sei mal ehrlich: Wenn Du immer wieder erklären und rechtfertigen muss, "wie" genau Nvidia das "meinte" und man hat zu allem Sternchen mit Anmerkungen, ist das nicht sehr auffällig genau das, was ich anprangere: Dogmen und Postulate, die der Realität nicht standhalten.
Da magst Du durchaus Recht haben.
Gut möglich, dass ich durch die langjährigen Mühlen des Affenzirkusses inzwischen einfach so abgestumpft bin und automatisch so viel Information des Marketing- Bullshit- Bingos für mich durch einen Filter auf ein normales Niveau senke, dass mir da ein gewisses Gespür dafür abhanden gekommen ist, zu einer Negativbewertung aufgrund der getroffenen Aussagen für mich selbst zu kommen.

Ich seh die Werte, die NVIDIA rausgibt, die Architekturveränderungen, übersetze das für mich in meine Kenntnisse über DirectX Programmierung bzw. den Umgang mit den Engines, den ich pflege und bastle mir daraus meine eigene Wahrheit.
Und die wird natülich von deutlich mehr Faktoren beeinflusst, als das, was der User bei Erscheinen zum Zeitpunkt XY als Bewertungsgrundlage durch Benchmarks geliefert bekommt.

Benchmarks werden immer mit der auf die Vorgängergeneration getrimmten Software durchgeführt.
Das allein macht diese in meinen Augen für die Einschätzung eines Langzeitnutzens oder der absoluten Leistungsfähigkeit im Prinzip völlig unbrauchbar.

Ist ja nicht so, dass ich nicht auch die Schwierigkeiten ansprechen würde, die ich sehe. So betone ich mehrfach, dass die Entwickler durch Turing/Ampere in einer Zwickmühle stecken.
Um das Turing Potenzial auszuschöpfen, sollte man auf anteilig hohen Int- Gebrauch setzen.
Bei Ampere ist es genau umgekehrt und man kann eben unverhältnismäßig mehr Leistung erhalten, wenn man Int meidet.

Seis drum- Ampere bietet viel Potenzial, welches derzeit nicht ausgeschöpft wird. Deshalb sehe ich in der Karte keinen Fail.
Die beste Hardware und die beste Technik nutzt halt nichts, wenn man sie nicht durch optimierte Software zu Höchstleistungen trimmt.
 
  • Gefällt mir
Reaktionen: DDM_Reaper20, Laphonso und foo_1337
.Sentinel. schrieb:
Es hat schon seinen Grund, warum die PS5 mit 36CUs und 2,2GHz ein gutes Stück höher takten kann, als die XBOX (1,8GHz), die mal eben 40% CUs (52CUs) mehr versorgen muss.

Jetzt meinen hier einige, dass wenn man da zur XBOX NOCHMAL 50%! mehr CUs (80) in den kolportierten PC Big Navi verbaut, dass da auf einmal Taktraten von 2,5GHz bei unter 300Watt verbrauch und der Leistung einer 3090 auf den Zeigern stehen werden... Gäbe es nur sowas wie P ~ fmax³ nicht....

Bei TSMC würde man bei 2,5GHz mit seiner Fertigung gegen einen theoretisch dramatisch höheren Energiebedarf ankämpfen.

Das ist doch logisch beide Konsolen haben ein ähnliches Power Korsett.
Wohl so ca. 180-200W für den GPU Part inklusive den zusätzlich anfallenden Verbrauchern; Board, Lüfter Vram etc.

Wenn bereits 36CU's 2.23GHz bei ca. 180-200W takten können.
Wird es wohl bei NAVI 22 mit 40CU und ca. 2.5GHz auf 220 -240W hinauslaufen.
Es sollte allerdings noch mitberücksichtigt werden das die neuen GPUs anscheinend extrem auf Bandbreiteneffizienz getrimmt wurden und daher wohl nur ein 192 Bit SI + IF Cache zum Einsatz kommt.

Die 5700 und 5700XT mit 180 bzw. 220W TBP ist denke ich ein guter Anhaltspunkt
um Einschätzen zu können ob dies realistisch ist, da sie ebenfalls 36 bzw. 40 CUs und einen ähnlichen Taktunterschied haben daher sind 2.5GHz durchaus realistisch.

Bei nun 275 - 300W für 80CUs bei ca. 2.2GHz würde es nun wohl schon etwas knapp werden allerdings
Beispiel: 180W / 52 x 80 = 277W bei 1.825GHz

Jetzt hat Big Navi aber allem Anschein nach nur ein 256Bit SI + IF Cache anstatt ein 320 Bit SI wie es beim XBOX SoC zum Einsatz kommt was wiederum deutlich zur Energieersparnis beitragen sollte (60W+?).
Daher mein Fazit auch Gerücht Zwei das Big Navi ca. bei 80CUs 2.2GHz (275 -300W) takten kann, scheint plausibel zu sein auch wenn ich davon ausgehe das es wohl eher 300W werden und es sich bei den 2.2GHz um einen max. Boost handeln wird und der real in Games anliegende Takt wohl eher bei 2GHz im günstigsten Fall bei 2.1GHz liegen wird.
 
Zuletzt bearbeitet:
ArrakisSand schrieb:
Wenn bereits 36CU's 2.23GHz bei ca. 180-200W takten können.
Wird es wohl bei NAVI 22 mit 40CU und ca. 2.5GHz auf 220 -240W hinauslaufen.
Die Konsolen basieren doch bereits auf RDNA2 Technik.

Wo willst Du denn auf einmal bei einer dedizierten GPU, die per Se schon mehr Strom verbrauchen muss als die Einheit z.B. in einer XBOX oder PS5 APU diese eklatanten Einsparungen hernehmen?

Wenn man rein linear rechnen würde, denn käme man auf Deine 225-255Watt. Das ist aber nie und nimmer der Fall.
Mit erhöhung es Taktes erhöht sich auch der Stromverbrauch exponential. Ebenso steigt der Verbrauch nicht nur in Höhe der CUs, sondern die Fläche, die mit Strom versorgt werden muss schluckt ab einem gewissen Grad auch mehr Energie.

Es gibt zudem für jedes Stück Silizium ein Wall, gegen die Du dann irgendwann mit noch so viel Strom drücken kannst. Da kommt nicht mehr dabei rum.

Das sind (mit Verlaub) alles Milchmädchenrechnungen, die so viele Eigeneheiten, Abhängigkeiten und notwendige Kompromisse in der Chipentwicklung außer Acht lassen, dass sie schlichtweg nicht mehr als ein Ratespiel sind.
 
Laphonso schrieb:

Laphonso schrieb:
Dogmen und Postulate, die der Realität nicht standhalten

Der "Captain Obvious Award" geht heute an @Laphonso !! Herzlichen Glückwunsch, diese Beobachtung hatte zuvor noch niemand, darf ich wissen, wie man darauf kommt, dass Marketing nicht die volle Wahrheit widerspiegelt, sondern lediglich Marketing sein soll?

Ansonsten war das 8K Gedöns meiner Meinung nach auf DLSS bezogen, was ja relativ gut klappt. Kann es sein, dass die Folien/Ausschnitte von manchen einfach nur falsch interpretiert worden sind?

Laphonso schrieb:
Control nativ dann unter 30 fps war der Beweis: Vergiss es.

30fps (mit Dips) werden landläufig als spielbar angesehen. Nur weil dir und mir das nicht passt, heißt das nicht, dass wir die Wahrheit mit Löffel gefressen haben. Sorry, ist halt so. Ich stimme dir zu, dass das (für uns) ein Fail von Nvidia war. Aber ich sehe keinen hier in der Position, das irgendwie objektiv Beurteilen zu können.

Laphonso schrieb:
Biggest Generational leap ist gelogen

Diese Aussage ist leider Schwachsinn (und das meine ich auch so, weil auch ich mir gewünscht hätte, dass es gelogen wäre). Technisch gesehen ist diese Aussage wohl wahr (wenn man vielleicht so uralt Generationen außen vor lässt).
Ohne zu wissen, auf was sich das überhaupt genau bezogen hat, kann man aber so eine Aussage fast nicht treffen.

Laphonso schrieb:
Twice the performance as the 2080 ist auch gelogen.

Etwas Transferleistung darf man erwarten, oder (Ging wohl um die FP32 Leistung)? Zudem war auf einer der Folien ein "UP TO" vermerkt. Ich weiß ja nicht, was das für dich so bedeutet, für mich bedeutet das aber, dass ich definitiv nicht in jedem Spiel (bzw. fast keinem Spiel) dieses + bekommen werde. Bei up to 90% Rabatt in Möbelhäusern ist es doch auch so.
Lernt es doch bitte: Marketingaussagen (vor allem solche ohne Zahlen) sollte man nie ernst nehmen. Es wurde doch bereits in den Benchmark Folien der Präsentation klar gezeigt, was man von der 3080 erwarten kann.

Laphonso schrieb:

Ich würde mal behaupten "deine" 2080ti. Meine schafft nämlich keine +20% (ist eine Gaming X Trio) ggü. Stock und ich wette, dass das bei den wenigsten der Fall sein wird. Zumal die "krassen" Custom Karten von Ampere noch nicht da sind.

Ansonsten weiß, denke ich, inzwischen jeder, dass du Ampere scheiße findest. Ganz ehrlich, auch ich finde die 3090 scheiße, weil sie mir viel zu teuer ist.
Aber das ist nunmal keine Diskussionsgrundlage. Einfach das ganze weniger emotional betrachten, die eigene Meinung nicht so stark gewichten, dann kann man schön miteinander reden.

Laphonso schrieb:
Wie RDR2 und Metro Exodus werden wohl Cybwerpunk und GTA VI und Battlefield VI ganz andere Kaliber, die Ampere nicht mehr so gut aussehen lassen

Aber das ist auch nur ein valider Punkt, wenn Ampere im speziellen hier verkackt und z.B. Navi viel mehr Performance liefert.
Ansonsten müsstest du sagen, dass dir grundsätzlich die Leistung aktueller GPUs nicht ausreicht. Fair enough, aber das ist dann auch wieder keine vernünftige Grundlage, um irgendwas zu diskutieren.

Ich möchte noch ein Wort zum "Paperlaunch" verlieren. Bisher haben alle Nvidia Partner bestätigt, dass die Menge der GPUs zum Launch vergleichbar mit den Generationen davor war. Kann man nun also von einem Paperlaunch sprechen, nur weil diesmal ein Haufen Bots alles blockiert hat und zusätzlich die Nachfrage viel höher war? Wie definiert man Paperlaunch?
 
  • Gefällt mir
Reaktionen: Toni_himbeere
.Sentinel. schrieb:
Wenn man rein linear rechnen würde, denn käme man auf Deine 225-255Watt. Das ist aber nie und nimmer der Fall.
Mit erhöhung es Taktes erhöht sich auch der Stromverbrauch exponential. Ebenso steigt der Verbrauch nicht nur in Höhe der CUs, sondern die Fläche, die mit Strom versorgt werden muss schluckt ab einem gewissen Grad auch mehr Energie.
Klar steigt der Stromverbrauch auch exponential einhergehend mit der exponentiellen Erhöhung der Spannung die wiederum für die linerare erhöhung des Taktes benötigt wird.
Daher habe ich auch das Beispiel mit der 5700 vs 5700XT angeführ da diese ebenfalls über 36 bzw. 40CUs und Taktraten von 1.7 bzw. 1.9GHz verfügen.
Und wie ich bereits erwähnt habe wird ein Teil dieses exponentiellen Anstiegs durch die Verwendung eines deutlich kleineren Speicher-Interface aufgefangen.
Im Fall von NAVI 22 wären das 192 Bit + IF Cache
und im Fall von NAVI 21 256 Bit für 80CU anstatt 320 BIt für 52CUs
daher auch meine +60W?
 
Zuletzt bearbeitet:
ArrakisSand schrieb:
ein Teil dieses exponentiellen Anstiegs durch die Verwendung eines deutlich kleineren Speicher-Interface aufgefangen.
Im Fall von NAVI 22 wären das 192 Bit + IF Cache
und im Fall von NAVI 21 256 Bit für 80CU anstatt 320 BIt für 52CUs......

Nimm doch einfach mal das was schon über RDNA-2 bekannt ist:

52CU der Xbox werden 10gb mit 560gb/s versorgt, plus die 336gb/s der restlichen 6gb was so das unterste sein dürfte da Konsolen mit dem Rotstift design werden.
Die GPU an sich braucht ca. 140 Watt. bei 1,8Ghz

Mehr Bandbreite = bessere IPC.

Gewisse Speicherinterface fallen durch die Speichermenge weg. Bei 16gb bleiben 512bit oder HBM, oder 384 bit für 12gb ist GDDR6X nötig.
Auch hier kann mit etwas Google erspäht werden ob abgesehen von Nvidia in den letzten Monaten auch AMD das Produkt von Micron wollte.


Auf die RTX 3070 freue mich als Zocker doch sehr! ich muss die Karte ja nicht kaufen, allerdings werden damit andere Modelle in 2 Monaten günstig.
 
Wenn man die Tabelle anschaut muss man gleich wieder los lachen, hatte bis eben die 3070 auf dem Schirm als Upgrade, bzw. gute Konkurrenz zu den bald erscheinenden AMD Karten.
Aber Hey, wenn man nur in FP32 schneller ist als die 2080Ti und beim Rest deutlich abkackt, dann ist das (wieder mal) kein Zufall, sondern Strategie von Nvidia.
Immer so halbgare Produkte auf dem Markt, die massiv beschnitten sind.
Was kaufe ich mir Next-Gen, wenn die Tenso Cores deutlich schlechter performen als der Vorgänger, der laut Nvidia angeblich sogar geschlagen wird. Da messe ich die schon an ihren eigenen Worten.
Einfach extrem lächerlich, die 3000er Serie ist bei mir damit endgültig gestorben.
Die Karten darüber brauchen zu viel Strom und sind zu teuer.
 
Grundgütiger schrieb:
Gewisse Speicherinterface fallen durch die Speichermenge weg. Bei 16gb bleiben 512bit oder HBM, oder 384 bit für 12gb ist GDDR6X nötig.

Ein GDDR6 Chip hat ein 32Bit Interface und kann in einer normalen Bestückung oder in einer doppelten Bestückung eingesetzt werden. 16GByte VRAM kannst du also verschieden erreichen.

16x 1Gbyte mit 512bit
16x 1Gbyte mit 256bit
8x 2Gbyte mit 256bit

Ob man dabei GDDR6 oder GDDR6X Speicher einsetzt, ist zunächst einmal irrelevant. GDDR6X Speicher hat einen höheren Durchsatz, allerdings gibt es aktuell noch keine 2GByte GDDR6X Module.
 
iron mike schrieb:
Die Karten darüber brauchen zu viel Strom und sind zu teuer.

Undervolten heisst das Zauberwort. Kaum Verlust von FPS dafür 70W weniger Verbrauch, die Karten sind nun mal ziemlich auf Kante genäht.
 
Grundgütiger@

Ich habe mir alle Varianten die möglich währen bereits mal durch den Kopf gehen lassen, allerdings
scheinen sich die Gerüchte zu verdichten, so das es wohl am wahrscheinlichsten doch auf 256 Bit + IF Cache hinauslaufen wird. (Wobei ganz sicher kann man sich da allerdings trotzdem noch nicht sein, da AMD anscheinend bewusst Nebelgranaten gezündet hat, um die Konkurrenz bis zum letzten Moment im dunklen tappen zu lassen)
Mit dieser Variante habe ich so eigentlich auch überhaupt nicht gerechnet.
Wenn es stimmt was aktuell in aller Munde ist das Big Navi in etwa 3080 Leistung haben wird.
Wäre man mit HBM2 und den bekannten Vorteilen wohl in der Lage gewesen auf Kosten des Preises mit der 3090 zu konkurrieren und 16GB wäre ebenfalls möglich gewesen.
Bei 512 Bit SI hätte man wohl Kompromisse bezüglich der Taktrate eingehen müssen um innerhalb eines Verbrauches von 275 -300W bleiben zu können.
384 Bit SI hätte für Big Navi lediglich 12GB bzw. 24GB bedeutet + ebenfalls einer Reduzierung der Taktrate.

Bei 256 BIt + 128MB IF Cache wird es wirklich interessant zu sehen falls es denn nun wirklich so kommen wird. Ob dies ein vollumfängliches Speicher-Interface das in etwa den Doppelten Durchsatz bringt ersetzten kann.

512Bit 896 GB/s +
HBM2 ebenfalls
384 Bit min. 672 GB/s
ob da 448 GB/s + 128MB ausrechen werden um nicht in einen Flaschenhals hinein zu geraten?

Normalerweise nach RDNA1 Massstäben müsste ein 80CU mit ca. 2 GHz mindestens die Doppelte Speicherbandbreite haben um nicht zu limitieren. 2 x 448GB/s analog 2 x 5700(XT)

Wenn es AMD nun wirklich geschafft haben sollte, einem Geniestreich gleichkommend unter Zuhilfenahme von 128MB Cache dies zu eliminieren dann aber Hut ab.

Dies würde wohl Energieeinsparungen in einem Bereich von HBM2 bedeuten.
Der Platz auf dem Die der durch nur 1 X 256 Bit gewonnen wird, geht wohl wiederum durch die 128MB drauf.

Auch die Chip Größen die seit ewigen Zeiten im Netz zirkulieren würden sehr gut zu den 128MB Cache passen.

NAVI 21 = 505mm2 (80CU, 128MB)

Gerade wurde der Die Size bestätigt bzw. mit 536mm2 sogar leichr größer eingeschätzt wobei
die 505 trotzdem stimmen können ganz genau kann das zum Gegenwertigen Zeitpunkt eh noch niemand nachmessen.
Big Navi = 536mm2
Auch GDDR6 scheint sich zumindest für die zwei spekulierten kleineren Varianten von Big Navi (Navi 21) zu bestätigen.
Bzw. da 16GB läuft es entweder auf 256 Bit + IF oder 512Bit hinaus.
 
.Sentinel. schrieb:
Seis drum- Ampere bietet viel Potenzial, welches derzeit nicht ausgeschöpft wird. Deshalb sehe ich in der Karte keinen Fail.
Ich hoffe, das hatte ich auch immer klar differenziert, dass das meine POV war aus Enthusiastensicht mit der Erwartungshaltung, auch genährt durch das Nvidia Marketing, was sich am Ende dann doch entzaubert hatte.

Ich hatte auch auch hier geschrieben, dass die 3080 und 3090 tolle GPUs sind (mit soliden fps Zuwächsen), welche die 1440p und 340*1440Transition vor allem nun uneingeschränkt möglich machen, zudem die 4K Gruppe aus der 1-3% Nische heben und dass vor allem "schnellere" CPUs und Engines, welche Multi CPU scaling besser nutzen zukünftig noch mehr rausholen.
Alleine, der biggest generational leap war es nicht, und der reality check sind halt genau diese Games wie RDR2.

Ich selbst setzte ja auf DLSS und mit durch Gsync mit Nvidia weiter "verheiratet" ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
Chismon schrieb:
Bei den Konsolen-Marktstarts war mit aehnlichem zu rechnen sein, aber zumindest sind die Vorbestellungen ja da schon besser ueber die Buehne gegangen - so habe ich den Eidnruck - auch wenn natuerlich einige Abzocker wieder Mehrfachordern eingereicht haben, um andere (Dumme) zu den offiziellen Next-Gen Konsolen Marktstarts dann mit Nepp-Angebotspreisen abzuziehen.
Das ist die Frage, ob die besser über die Bühne gegangen sind. Man hat einfach die Bestellmöglichkeiten offen gelassen, bis ein gewisses Kontingent an Vorbestellungen erreicht war.

Dass auch die Hersteller der Konsolen hoffnungslos mit der Anfrage überfordert sind, zeigt allein schon die Ankündigung, dass es zum offiziellen Launch keine Konsolen bei Retailern zu kaufen gegen wird, sondern die Vorbestellungen der Reihe nach abgearbeitet werden.

Diesesm "Problem" ist mit wirtschaftlich vernünftigen Mitteln schlichtweg nicht beizukommen.
Deswegen mache ich da den Herstellern keinen Vorwurf draus, wenn zu einem X- Beliebigen Launch zu wenige Einheiten (egal wieviele zu wenig) haben.

Wenn man sich auch nur mal eine Sekunde in die Lage der Fertiger versetzen würde, würde man sehr schnell erkennen, dass es nicht anders machbar ist, ohne sich selbst finanziell zu schaden.
Und sich selbst zu schaden, nur weil es ein par Neider gibt, die sich auf den Schlips getreten fühlen, wenn ihre Majestät nicht sofort alles bekommt, bzw. irgendjemand vor ihnen ein Produkt nutzen kann, ist keine Option.

Es ist schon gut so, wie sies machen. Ab Produktionsstart raushauen, was geht.
 
  • Gefällt mir
Reaktionen: Toni_himbeere und Chismon
Oneplusfan schrieb:
Der "Captain Obvious Award" geht heute an @Laphonso !! Herzlichen Glückwunsch, diese Beobachtung hatte zuvor noch niemand, darf ich wissen, wie man darauf kommt, dass Marketing nicht die volle Wahrheit widerspiegelt, sondern lediglich Marketing sein soll?

Mir ist doch egal wie man das nennt, es war einfach Quatsch, und das haben ja auch schon andere Medien und Tech Kanäle/Foren/Blogs/Seiten auseinander genommen.
Konsens war:

"8K Gaming" Marketingquatsch und widerlegt
"Twice the performance of 2080" Marketingquatsch und widerlegt
"biggst generational leap" Marketingquatsch und widerlegt
Und "3070 faster than 2080Ti" ist ebenso Marketingquatsch und folgt dann die Tage.

Das Engagement, mit dem manche Nvidia hier verteidigen ist Entertainment, erinnert mich an den Radeon VII Launch, als mir die AMD Front entgegenlief.

So lange man beide Lager "gegen" sich hat, sagte ich ja oben, kann ich mich im eigenen MARKETING in diesem Forum als objektiv kritisch hinstellen, denn die größte Bestätigung ist das dauerhafte Gegenfeuer der branding-loyalen Gruppen ;)

Nvidia für die Unwahrheiten zur Verantwortung zu ziehen, muss hier weiterhin möglich sein.
 
Zurück
Oben