News Hopper & Lovelace (RTX 4000): Nvidias Next-Gen-GPUs sollen auf TSMCs N5-Prozess setzen

ThePlayer schrieb:
Du schreibst hier totalen Blödsinn zusammen.
Besten Dank für diese qualifizierte Replik. Vor so viel Fachverstand zieh ich sofort meine unausgegorenen Aussagen natürlich zurück.
Soll doch jeder selbst seine Erfahrungen machen (und sein Geld dorthin werfen, wo er will...) - habe nur meine persönliche Erfahrung damit geteilt. Aber vermutlich bin ich mittlerweile zu alt und auch einfach nur zu blöde, meinen PC richtig zu konfigurieren ...
Allerdings "spiele" ich in VR nicht BeatSaber sondern nutze es ausschließlich für Flugsimulationen, die doch etwas mehr Performance fordern, als der übliche Spielkram-Testparcour vermitteln kann ... aber solche absurden VR-Nischen sind vermutlich dann auch nicht maßgeblich ...
 
LäuftBesser2000 schrieb:
Sollte egal welche GPU 600w im Dauermodus ziehen bin ich raus!
Ja selbst jetzt mit 300w bei meiner Karte wird es im Winter ohne Heizung in meinem 9qm PC Zimmer mollig warm. Früher hatte ich beim Zocken im Winter immer eiskalt Hände, jetzt nicht mehr!
 
  • Gefällt mir
Reaktionen: Kai85
Eine RTX 4000er-Serie wäre echt klasse. Dann besteht ja noch Hoffnung eine 3000er zu Normalpreis zu bekommen.
Wenn die wirklich 2022 kommen sollen (was ich nicht glaube aber egal) geht das ganze Gedöhns wieder los - oh no....
 
@Shoryuken94 mag mit Apple Stimmen und mir ist das GloFo auch klar habe damals die Artikel über GloFo und wieso bei 12nm Schluss ist gelesen. Aber nur eine Foundry die 1-2 Nodes vor dem Rest ist, ist schlecht. Und zwar für alle. Hersteller wie auch und Kunden.
 
Phoenixxl schrieb:
Wer eine Karte der RX6000 oder RTX 3000 besitzt, der dürfte die nächste Generation guten Gewissens aussitzen.
So sehe ich das nicht. Wenn mir RDNA3 deutliche Mehrleistung liefern kann, dann kann ich mir einen Neukauf sehr gut vorstellen. Gerade bei RT hat AMD noch bissl Nachholebedarf. Hängt aber von den Preisen und der Verfügbarkeit ab. Ich lass meine 6900XT im Normalbetrieb bei 200 Watt laufen. Es muss nicht immer alles an der Kotzgrenze sein.
 
  • Gefällt mir
Reaktionen: ThePlayer
Phoenixxl schrieb:
Wer eine Karte der RX6000 oder RTX 3000 besitzt, der dürfte die nächste Generation guten Gewissens aussitzen.
Man könnte, aber man könnte auch nicht :)
Sagen wir mal 100% Mehrleistung bei UV 200W, da würde ich, je nach EK neu und VK alt auch eine neue Karte kaufen.
 
  • Gefällt mir
Reaktionen: ETI1120
Da den Herstellern momentan alles aus den Händen gerissen wird, egal zu welchem Preis, werden die sich hüten davor Mittelklasse oder gar Einsteigerchips zu produzieren.
Mal sehen ob sich daran was ändert bis zur neuen Gen.
Ansonsten werden die neuen APUs interessant von AMD, die werden vielleicht der neue Gamingstandard für die PC Massen.
 
  • Gefällt mir
Reaktionen: fox40phil
chrilliB schrieb:
Aktuelle Beispiele wurden bei CB und anderswo doch reichlich benannt: Horizon Zero Dawn, Jurassic World Evolution 2, Forza Horizon 5, Battlefield 2042 uvm. Dort ist die Grafik nicht unbedingt AAA tauglich und frisst dazu noch reichlich Leistung.


Das kannst du doch nicht ernst meinen? Wenn selbst das optisch klar beste und schönste Rennspiel nicht AAA ist, was ist es dann?
FH5 ist halt kein absurd gut laufendes Optimierungswunder wie FH4 mehr, das ja auf jedem Toaster herausragend aussah, weshalb der Mehrwert bei der Grafik die Performance nicht rechtfertigt, für sich gesehen sieht es aber immer noch beeindruckend aus und läuft für seine Optik super.


Das wird sich nVidia königlich bezahlen lassen. Riesige Chips, sehr teurer Prozess, angeblich riesiger Leistungssprung. Die bringen die Karten mit der selben Leistung sicher mal wieder zum selben Preis wie die aktuelle Generation (also die UVP einer 4060, vielleicht 4070 bei dem zu erwartenden Leistungsplus irgendwo bei der einer 3080) und man bringt die neuen 80er und 90er einfach oberhalb der 1500€.
Das erklärt auch die Gerüchte, warum man so extrem mit der Brechstange rangeht und völlig auf Effizienz und Verbrauch scheißt. AMD wird wenn sie tatsächlich Multichip-GPUs bringen zumindest beim P/L-Verhältnis weit vorne sein, dann muss nVidia mit aller Macht die Leistungskrone haben um die nötigen Preise zu rechtfertigen.
Naja, reine Spekulation. Solche Gerüchte gabs ja regelmäßig vor neuen Generationen, und immer wars dann am Ende doch weniger als erhofft.

NVidia kann ich mir dann aber ohnehin nicht leisten und auch das Gesamtpaket sagt mir weniger zu (allein der Treiber bei AMD ist reiner Luxus), und die neue Generation von AMD wird auch kein Schnäppchen werden und ob die von Anfang an so läuft wie gedacht? Dass die relativ "fertig" auf den Markt kommt, davon gehe ich bei der anscheinend recht engen Zusammenarbeit mit dem CPU-Team mal aus (Stichwort IC), da wird man schon Erfahrungen austauschen und Kinderkrankheiten so gut es geht vermeiden, aber trotzdem...

Spannender ist RDNA3 in jedem Fall. Ich bin aber dank 6700XT erstmal versorgt und warte wohl ab, bis nVidia einen richtigen Konkurrenten bringt um dann bei RDNA4 oder 5 zuzuschlagen, wenn beide Multichip-Designs nutzen, damit günstiger fertigen und sich einen richtigen Preiskampf liefern können... den sehe ich bei der nächsten Generation irgendwie nicht, auch mangels Stückzahlen.
 
  • Gefällt mir
Reaktionen: fox40phil und Viper816
LTCMike schrieb:
Besten Dank für diese qualifizierte Replik. Vor so viel Fachverstand zieh ich sofort meine unausgegorenen Aussagen natürlich zurück.
Soll doch jeder selbst seine Erfahrungen machen (und sein Geld dorthin werfen, wo er will...) - habe nur meine persönliche Erfahrung damit geteilt. Aber vermutlich bin ich mittlerweile zu alt und auch einfach nur zu blöde, meinen PC richtig zu konfigurieren ...
Allerdings "spiele" ich in VR nicht BeatSaber sondern nutze es ausschließlich für Flugsimulationen, die doch etwas mehr Performance fordern, als der übliche Spielkram-Testparcour vermitteln kann ... aber solche absurden VR-Nischen sind vermutlich dann auch nicht maßgeblich ...
Gut ich habe jetzt auch deinen zweiten Kommentar gelesen. Und der ist dann schon differenzierter als der erst der schon ziemlich nach Fanboi geschwurbel rüberkommt. Ich habe zuletzt eine 1070 von Nvidia gehabt das war aber vor meiner Ocolus Rift S, meiner ersten VR Brille. Und somit kann ich nur darüber schreiben. Und Beatsaber habe ich noch nicht gespielt. Dafür HL Alyx, Lone Echo, Forza und etwas Elite gespielt. Und die Performance der 6800xt reicht bei vollen Details für die max FPS der Rift S aus bei diesen Spielen.
Aber was du da über die Treiber schreibst bleibt trotzdem Blödsinn.
 
  • Gefällt mir
Reaktionen: Richy1981
Ich bin wirklich verwundert, dass es nur wenige Hersteller und Entwickler für Grafikkarten gibt.
Wenn man hier die Beiträge liest, alles Genies und Entwickler.
Ich werde erst mal abwarten, was die nächsten 3 Jahre so auf dem GraKa-Markt passiert. Und dann werden wir sehen, wie gut Was und Wer ist. "müsste,könnte,sollte" gibts schon genug in den Nachrichten. :heilig: :schluck:
 
Gründe, die gegen eine Entspannung am GPU Markt sprechen:

- Nachfrage: GPU Bedarf für Mining wächst weiter. Kasachstan baut dafür ein eigenes Atomkraftwerk (!) um noch mehr und stromhungrigere Mining Farmen mit billigem Strom zu versorgen

- Nachfrage: Dank Lockdown, Freizeit-Beschränkungen etc: Home Office und Home Entertainment werden auch 2022 den Bedarf an Hardware weiter erhöhen. Damit steigt auch die Preiselastizität.

- Angebot: Engpässe bei Rohstoffe und Hilfsstoffe, Anlagen und Fachkräfte (auch wegen Krankheit) trifft auf verringerte Flächennutzung dank Abstand und Hygienekonzepte, zumal die weltweite Logistik beeinträchtigt ist.

- Produktion: Gigantische Wartelisten durch begrenzte Produktionskapazitäten verknappen auf Dauer.

Preise: AMD, Nvidia & Intel können ihre Preise dank der hohen Nachfrage fast beliebig steigern, da das Angebot begrenzt bleibt bei steigender Nachfrage auf höchstem Niveau -> Gewinnmaximierung
 
  • Gefällt mir
Reaktionen: fox40phil, 5hred und Viper816
ThePlayer schrieb:
Aber das würde dann ja Apple treffen. Für mich so richtig wie ein Reis sack in China.
Solange das nicht AMD tangiert ist mir das egal. Wenn z.b. N3 nicht funktioniert hat ja Apple das nachsehen und muss alles auf N5 portieren.

Shoryuken94 schrieb:
Sollte sich ein scheitern oder eine große Verzögerung auch nur ankündigen, dürfte Apple ne ganze menge Geld auf den Tisch legen, um sich weiter Kapazitäten in den alten Prozessen zu sichern.

Wie ist in solchen Fällen eigentlich die Rechtslage?
Kann mir einfach nicht vorstellen, dass Apple irgendein Risiko eingeht, bzw. gegangen ist und auch nur der Hauch einer Chance besteht, dass sie überhaupt leer ausgehen könnte. Gibt es in solchen Verträgen Klauseln, dass im Fall der Fälle (N3 läuft nicht) der nächstbeste laufende Prozess genutzt werden kann oder etwas in der Art?
 
Falls es jemand interessiert. Ja Krypto ist hauptsächlich schuld. Und ihr zahlt deswegen alle höhere Preise für alles was sich deswegen verzögert egal ob neu oder sogar gebraucht. Vergiss GPUs. Ist für Euch letztlich vordergründig interessant. Es geht um noch viel mehr. Alles wird durch Kryptoboom zum Mangel.
Hier mal ein Beispielartikel für die Gesamtübersicht:
https://www.manager-magazin.de/unte...haerft-a-9b1d79f6-5ed2-4579-966a-5b192802b32c

Davon abgesehen gibt es noch einen Mangel an allem anderen. Z.b leere Spielzeugregale und Energiepreise gehen auch massiv hoch...
 
Ich glaube, dass passt AMD überhaupt nicht in den Kram. Oder die Su hat schon vorher ausreichend Kapazitäten sichern können. Da man das aber im Vorraus macht, stellt sich die Frage, ob man die extrem hohe Nachfrage einigermaßen genau eingeschätzt hat. Wenn nicht, was ich für sehr wahrscheinlich halte, hätte man mit Nvidia einen Hersteller, mit dem man um Kapazitäten konkurrieren muss.

Nvidia kommt mit dieser Meldung recht spät. Entweder wurde alles schön unter Radar gehalten oder man entschloss sich zu diesem Schritt relativ spät, nachdem man erkannt hat, das bei Samsung der Fertigungprozess den Ansprüchen nicht genüge tut.

Die Frage ist nun: Hat sich AMD zeitlich genügend (also wie geplant) N5-Kapazitäten sichern können, um entspannt in die Zukunft zu blicken oder sind die nun mächtig angefressen, weil Nvidia auf einmal ein großes Stück vom N5-Kuchen abhaben will. Hat Nvidia pünktlich Kapazitäten sichern können oder haben sie nun das Nachsehen und bekommen nur den Rest des N5-Kuchens ab?

Jensen, das Schlitzohr, wir schon bestimmt einen krassen Deal eingefädelt haben.
Kann man bei TSMC kleinere N5-Besteller mit schmackhaften Deals Richtung N6 (auf jeden Fall von N5 weg) wegdrängeln? Oder ist jede Bestellung so safe, dass sich da nichts machen lässt.
Mal ab von Vertragsbruch, sollten Bestellungen vertraglich bindend sein (also nicht nur die Annahme vom Besteller sondern auch die Zurverfügngstellung von TSMC), da sollte sich normalerweise nichts ändern können, auch wenn ein Big Player wie Nvidia daherkommt und nun viele N5-Kapazitäten anfragt....

Wer weiss..., man kann nur wissen: sollte NV mehr N5-Kapazitäten als AMD gesichert haben, dann kann AMD noch so viele GPUs verkaufen, NV wird seinen Marktanteil weiter ausweiten (also auf N5-GPUs beschränkt).

Dann das Gerücht, AMD ginge zu Samsung. Also wenn Nvidia die durch Geldmacht dazu bewegt hat, auf Samsung auszuweichen, weil man später sonst nicht genügend N5-Kapatitäten gesichert bekommt (mal ab von den bereits zugesicherten Kapazitäten), dann muss sich AMD wohl mit Samsungs schlechterem Fertigungsprozess begnügen.
Vielleicht können die dann nicht mehr die effizientesten und schnellsten GPUs fertigen lassen, doch dafür hätte man keine Kapazitätsprobleme und könnte zudem durch den günstigeren Prozess die Gewinnmarge steigern, was sich positiv auf die Bilanz und Aktie auswirken sollte...

Aber die starken RDNA3-Karten (Multi-Chip, wenns kommt) würden dennoch bei TSMC gefertigt werden, denke ich. Die low-range-Karten dann eben bei Samsung. Da zählt dann die Quantität um die Masse in den Zeiten der großen Nachfrage bedienen zu können. Somit würde man Umstatz und Marge steigern können.

Bei den aktuellen GPU-Preisen muss AMD nicht einmal die schnellsten GPUs anbieten.
Zum halbwegs normalen Preis (oder geringerem) wird ja den GPU-Herstellern alles aus den Händen gerissen.
 
Zuletzt bearbeitet:
ThePlayer schrieb:
Aber was du da über die Treiber schreibst bleibt trotzdem Blödsinn.
dann muss wohl entweder die Hardware oder deren Architektur in meinen VR-Anwendungsszenarien (Sim-Racing und Sim-Flight) nicht funktionieren (was ich mir angesichts der theoretischen Rohleistung nicht recht vorstellen mag) oder da läuft im Hintergrund wieder die große NV-Verschwörung (wobei nicht eine der Simulationen irgendwie mit NV Gameworks wirbt oder m.W.n. das überhaupt nutzt) - und ja: ELITE funktioniert bei mir auch, aber ehrlich gesagt: was da im Spiel "simuliert" wird, ist weder grafisch noch seitens Physik wirklich vergleichbar mit ner ausgewachsenen (und entsprechend anspruchsvollen) Flug- oder Racing-Sim.

Und der ist dann schon differenzierter als der erst der schon ziemlich nach Fanboi geschwurbel rüberkommt.
Aus dem Alter bin ich nicht nur seit über 50 Jahren raus, sondern hab dazu auch zu viel persönliche Erfahrung mit aller möglicher Hardware und deren Herstellern seit dem VC20, um das nicht differenzieren zu können ;)
 
Zuletzt bearbeitet: (Ergänzung)
Chesterfield schrieb:
Willkommen in Zeitrechnung indem Halbleiter in die Liga der Luxusgüter aufgestiegen ist … bezweifel sehr stark ob Hardware ( also neueste Technologie der entsprechenden Zeit) für 0815 Verdienende bezahlbar wird … und next gen Grafikkarte klingt nach Witz da die aktuelle nicht mal angekommen ist bei Mensch die gerne eine hätten ( bezahlbar , kein Kleinanzeigen Wucher)
Wir können im Grunde froh sein das die Autoindustrie, Miner, Clouddienste, Digitalisierung usw. den Halbleiter Verkleinerung Prozess vorfinanzieren. Davor waren es die alle 2 Jahre Smartphone Wechsler, Gamer, Offices, Mediacreator Nachzügler usw. TSMC bekommt es alleine ja auch nicht mehr hin. Soweit mir bekannt ist arbeitet TSMC gemeinsam mit Apple an den 2nm Prozess. Haben ein gemeinsames Forschungslabor gegründet. Jeder hat gesehen wie AMD und Apple an Intel vorbeigezogen ist. Intel hatte enorme Probleme bei der Verkleinerung . Nicht nur das , Intel hat sich sogar Ressourcen bei TSMC für ihre Grafikkarten gesichert. So ein Riesenkonzern bekommt es nicht hin seine GPUs selbst zu produzieren. Die Verkleinerung wäre irgendwann ins Stocken geraten. So oder So wird der weitere Verlauf dazu führen das wir selbst nicht mehr die Hardware besitzen sondern die benötigte Rechenkraft über die Cloud abrufen. Google Stadia und wie sie alle heißen ist ein Vorbote dessen und unsere Smartphones werden dadurch auch wesentlich kleiner wenn man nur noch das Display und den Akku in der Hand hält weil die halt über Stream laufen. Stichwort Teslas Satelliten.
 
  • Gefällt mir
Reaktionen: Viper816
Apropos: man sollte sich bei den kommenden GPUs vom naiven Wunschdenken verabschieden, dass die Marktpreise wieder "normal" werden. Wenn heutzutage die Nachfrage auch bei horrenden Preisen vorhanden ist, warum sollten Händler jemals mit dem Preis runtergehen?
Ist die Nachfrage bzw. der Umsatz bei z.B. Mindfactory durch die krassen Preise der letzten Zeit eingebrochen?
Ich denke, kaum. Wenn der Umsatz mindestens gleichgeblieben ist, dann behält man die hohen Preise.
Es sei denn, man wolle Lagerplatz für neue Karten machen. Und das die neuen RTX 4000er das gleiche Preisniveau haben werden wie die RTX3000er aktuell haben, wohl eher nicht.
Sollte die Nachfrage der Miner weiterhin so hoch bleiben, dann werden für RTX4000-Karten noch höhere Preis aufgerufen.
Und die Scalper mir ihren Bots tun ihr Übriges, um die Situation anzuheizen.

Viel Spass dann. Dann darf sich PC-Gaming zurecht und mit ganzem Stolz Edel-Gaming nennen.
Ein Hoch auf die PC-Master-Race. Der nicht würdige Pöbel muss dann zur Konsole greifen.
Wie üblich halt, eine 2-Klassen-Gesellschaft im Gaming, forciert durch Preise.
 
zuerst einmal das lovelace in 5nm kommt war schon seit min 12 Monaten bekannt das hopper auch noch in 5nm kommt nicht.
Aaber daran glaube ich ehrlich nicht
Aus wirtschaftlicher Sicht macht es Sinn
Aus technischer weniger
daher wird nvidai wieder dann 2 Fertigungen nutzen wie bei rtx4000 also lovelace zu ampere refresh
Den anders als ihr glaubt wird nvidia folgend vorgehen
zuerst die bestehende rtx30 seire weiterlaufen lassen und mit rtx4000 in 5nm q4 2022 kommen
In q1 bis q3 2023 wird nvidai ga104 und ga106 auf tsmc 6nm portieren
Was dann die modelle rtx4050 bis rtx4060 sind
Die rtx4070 bis high end rtx4090 sind dann die chips ad106 und ad104

hopper wird unklar sein bisher ist nix bekannt wie der mcm Ansatz ist.
Amd muss erst beweisen das der mcm Ansatz in windows als eine gpu rechnet oder es doch zu sfr methode kommt was dann zu mikroruckler führen wird.
Daher ist unklar ob überhaupt n32 auf dem desktop kommen wird ich sehe da eher n33 bis ans limit Oc 3,0ghz und mehr.(80cu bei etwa 30tf)
Die größte bremse aktuell ist die speicherbandbreite den nur da könnte man noch mehr rausholen
Der mcm ansatz muss gelingen ansonsten wird es auf software Anpassungen hinauslaufen.
was zwangsweise zu latenzen führt
Das einzige was diesen trend entgegenwirkt ist schnellerer sram also mehr takt.
gddr6+ bis zu 24gbits
Und später gddr7 mit 32gbits was dessen Speicherbandbreite aber auch fraglich ist mit den anzunehmenden 80tf leistung
auf lange Sicht muss entweder mehr si was bei 5nm über 384 bit fraglich ist oder nvidia exkludiert wie amd das SI in nen eigenen chip beim mcm design
Was dann bis zu 1024bit ermöglicht
Womit sich die frage stellt ob lovelace doch schon gddr7 haben wird.
gddr6+ ist bei navi 3 gesichert
Die shader anzahl sind ziemlich sicher es stellt sich nur die frage wird mcm in directx am PC funktionieren
Wenn ja wird es eine Leistungsexplosion geben ich gehen von min 150% aus
faktor 2,5 vs Vorgänger
Wenn nein wird es max 40-75% sein
Da amd nur den n33 mit 3,0ghz bringen wird (rx7900xt) und mehr speicherbandbreite
Und nvidia ad104 als flagship (rtx4090) und den ad106 als high end (rtx4080) während der rest refresh von ampere wird.

mcm bei cpu, nun Cpu sind nicht so latenz empfindlich wie Echtzeitberechnungen mit gpu
Aktuell sind 2 Bilder notwendig die vorgerendert werden müssen bevor der anwender diese sieht
Wenn gut läuft sind es danach 3 Bilder wenn schlecht wirds langsam zu indirekte steuerung
Dem kann man nur mit mehr fps entgegenwirken
bei 2 bilder reichen 30fps bis man einen inputlag bemerkt
bei 3 bilder unter 60fps
bei 4 muss man min 75fps haben um kein inputlag zu spüren
Den genau das wird das problem sein bei mcm es wird zu latenzen kommen wenn die beiden gpu chiplets daten austauschen müssen
Der Ausweg wäre nur sfr (split frame rendering) das reduziert die latenz auf 1 also das max 3 frames bei 60fps
bevor es schwammig wird.
Was dann 30fps unspielbar machen wird. mit einer mcm gpu

Davon ab das größere problem wird aber eher die cpu wie will man bitte 40-60 teraflops auslasten?
aktuell ist in 1080p bei heutigen cpu 16tf dicht darüber kommt man zwangsweise in ein cpu limit
In 1440p ist man bei 22tf aktuelles high end am limit der gpu auslastung
in 4k wäre die einzige auflösung wo mehr als 30tf was bringen wird.

Das problem ist aber das 4k als pixeldichte bei monitoren ein problem haben und das ist die windows standard dpi von 96 wonach sich jegliche software nach richtet
Der scaler in windows ist unzuverlässig zumal dieser nur greift wen es programme es zulassen sprich neu sind
ansonsten bleibt nix anderen übrig als nicht native auflösungen am desktop zu nutzen
Was keine Lösung ist 32zoll und 4k stellt man sich nicht auf dem schreibtisch
Daher die frage welche cpu soll bitte 40-60tf auslasten in 1440p?
 
PS828 schrieb:
Egal wie Nvidia sich das vorstellt, die Dinger werden riesig. Auch in 5nm. Das kann nicht gut sein für yield und Kapazität.
Naja, das werden zwei Full-Node Sprünge. Da bekommen sie schon ordentlich was unter. Und vor allem wird die Effizienz erheblich besser werden.
 
Zurück
Oben