Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Grafikspeicher: GDDR7-Samples für Nvidias nächste GeForce-Generation
- Ersteller MichaG
- Erstellt am
- Zur News: Grafikspeicher: GDDR7-Samples für Nvidias nächste GeForce-Generation
.Snoopy.
Lt. Commander
- Registriert
- Juli 2008
- Beiträge
- 1.346
[wege]mini schrieb:@MichaG
Ich sage ja auch immer (noch) "nach Adam Riese". kA warum.
Eigentlich war sein Name ja Adam Ries. Wenn hier irgend welche Linguisten sind, dürften sie gerne aufklären, was denn "richtig" ist.
Das ist korrekt, was du schreibst, aber nach so vielen Jahren ist umgangssprachlich aus Adam Ries (der im 16. Jhd. lebte) Adam Riese geworden. Gibt sogar eine Briefmarke zu ihm, wo es falsch mit E am Ende draufsteht.
BTT:
Ich bin nur gespannt, ob Samsung das Rennen macht oder SK Hynix bis zum Launch der 5000er Serie nachgezogen ist. Denn da Nvidia mehr Karten als AMD verkauft, dürfte das nicht ganz uninteressant sein.
Welchen Speicher verbaut denn AMD? Gibt es bei den diskreten Grafikkarten und den Konsolen einen bestimmten Hersteller, oder wird das genommen, was gerade gut und günstig verfügbar ist?
[wege]mini
Banned
- Registriert
- Juli 2018
- Beiträge
- 8.357
Er ist ja auch Adam, der Riese ![Heilig :heilig: :heilig:](/forum/styles/smilies/heilig.gif)
Damals, als wir noch das Land der Dichter und Denker waren, ach waren das schöne Zeiten. Heute sind wir das Land der dichten Denker, die sich Nachts treffen und am nächsten Morgen aussehen, als wenn sie ihre Entscheidungsfindung nur mit Alkohol geschafft haben, da man dann ein wenig benebelt ist.
btt:
So schauts aus. AMD hat nicht die Möglichkeiten, einen eigenen Prozess oder Fertigung zu bekommen, wie Nvidia, Intel oder Apple. AMD muss nehmen, was sie kriegen können.
mfg
p.s.
Und klar, selbst Martin Luther hat dem Wein gefrönt. Da spricht nichts dagegen. Es gibt aber einen Punkt, an dem wird es zu viel.
![Heilig :heilig: :heilig:](/forum/styles/smilies/heilig.gif)
Damals, als wir noch das Land der Dichter und Denker waren, ach waren das schöne Zeiten. Heute sind wir das Land der dichten Denker, die sich Nachts treffen und am nächsten Morgen aussehen, als wenn sie ihre Entscheidungsfindung nur mit Alkohol geschafft haben, da man dann ein wenig benebelt ist.
btt:
.Snoopy. schrieb:oder wird das genommen, was gerade gut und günstig verfügbar ist
So schauts aus. AMD hat nicht die Möglichkeiten, einen eigenen Prozess oder Fertigung zu bekommen, wie Nvidia, Intel oder Apple. AMD muss nehmen, was sie kriegen können.
mfg
p.s.
Und klar, selbst Martin Luther hat dem Wein gefrönt. Da spricht nichts dagegen. Es gibt aber einen Punkt, an dem wird es zu viel.
Zuletzt bearbeitet:
SweetOhm
Lt. Commander
- Registriert
- Juli 2023
- Beiträge
- 1.533
Du meinst genau wie bei RT und DLSS 3.0 ?!?ThirdLife schrieb:Seh ich eben auch nicht wirklich. Erstmal muss es Spiele geben die das nutzen und nicht nur einen oder zwei Titel sondern hunderte. Vorher ist von einem "brauchen" eh nicht die Rede.
Ergänzung ()
Mehr UMSATZ machen sie bei den "Gamern"..Snoopy. schrieb:BTT:
Denn da Nvidia mehr Karten als AMD verkauft, dürfte das nicht ganz uninteressant sein.
Aber insgesamt dürften sie mehr Chips "an den Mann" bringen ...
https://www.gamestar.de/artikel/nvidia-vs-amd-grafikkarten-verkaufszahlen,3392375.html
Anhänge
Zuletzt bearbeitet:
[wege]mini
Banned
- Registriert
- Juli 2018
- Beiträge
- 8.357
SweetOhm schrieb:Aber insgesamt dürften sie mehr Chips "an den Mann" bringen ...
Das ist bei den Gamern korrekt. Nur leider verkauft AMD "Billigchips".
https://wccftech.com/amd-radeon-mai...pu-sales-lead-over-nvidia-geforce-in-germany/
Wenn man sich anschaut, wo der Week’s Average Sale Price von AMD liegt und der von Nvidia, versteht man, warum AMD einfach nur hinterher hechelt, trotz guter Zahlen bei verkauften Karten.
Die 52% von AMD zu den 46% von Nvidia bei den verkauften Karten (beides abgerundet) bringen nichts, wenn der Geldwert von AMD Karten 43% im Vergleich zu Nvidia Karten (56%) so stark abfällt und wenn man den Durchschnitt anschaut,
AVERAGE (2023 )€606 €812 €251. (AMD, Nvidia, Intel)
Wer im Durchschnitt 812€ pro Karte verkaufen kann, der kann auch eine eigene Fertigung bezahlen.
Und natürlich, sind das alles total unvernünftige Werte. Wenn der Durchschnitt auf diesem Niveau liegt, ist man in Deutschland.
mfg
Sie verkaufen weitaus mehr Desktop Karten als AMD. Eine isolierte Betrachtung eines Händlers bringt nicht wirklich etwas.SweetOhm schrieb:Aber insgesamt dürften sie mehr Chips "an den Mann" bringen ...
Bei Chips liegen beide seit Ende 2020 grob gleich auf wenn man Desktop GPUs + PS5/XBOX Sales nimmt.
Bischen schwierig ist das bei Mobile Chips, da gibts keine belastbaren Zahlen.
ThirdLife
Captain
- Registriert
- Aug. 2019
- Beiträge
- 3.279
Es gibt also nur zwei, drei Spiele die entweder DLSS nutzen, RT oder FrameGen ?SweetOhm schrieb:Du meinst genau wie bei RT und DLSS 3.0 ?!?
Und was hat das mit meiner Aussage zu tun ?
SweetOhm
Lt. Commander
- Registriert
- Juli 2023
- Beiträge
- 1.533
I know.[wege]mini schrieb:Das ist bei den Gamern korrekt. Nur leider verkauft AMD "Billigchips".
Bin ja "lediglich" auf seine Aussage eingegangen, dass NV mehr GraKa´s verkauft ...
Ergänzung ()
Es gibt also nur ein zwei Games, jene mehr RAM benötigen ?ThirdLife schrieb:Es gibt also nur zwei, drei Spiele die entweder DLSS nutzen, RT oder FrameGen ?
Und was hat das mit meiner Aussage zu tun ?
Dein/e Zitat/Behauptung :
"Erstmal muss es Spiele geben die das nutzen und nicht nur einen oder zwei Titel sondern hunderte. Vorher ist von einem "brauchen" eh nicht die Rede."
Deine Aussage somit : Wenn nur ein kleiner Bruchteil was kann/unterstützt, ist von einem "brauchen" nicht die Rede. Und Prozentual gesehen trifft Deine Meinung/Aussage eben auch auf RT und DLSS 3.0 zu !
Zuletzt bearbeitet:
.Snoopy.
Lt. Commander
- Registriert
- Juli 2008
- Beiträge
- 1.346
Mindfactory als local seller ist uninteressant. Globale Fakten sagen mehr aus.SweetOhm schrieb:Mehr UMSATZ machen sie bei den "Gamern".
Aber insgesamt dürften sie mehr Chips "an den Mann" bringen ...
Nvidia verkauft aktuell mehr Einheiten. Wenn AMD nicht den Konsolenmarkt beliefern würden, sähe in der RTG sehr düster aus.
Millennial_24K
Lt. Commander
- Registriert
- Dez. 2021
- Beiträge
- 1.441
Oooh, Nvidia wurde also schon mit dem neuen GDDR7 Speicher beliefert. Sie können es sicherlich kaum erwarten ![Lächeln :) :)](/forum/styles/smilies/smile.gif)
Zum Glück ist GDDR7 im Gegensatz zu GDDR6X für die Allgemeinheit verfügbar. Also: AMD wird ebenfalls bald mit GDDR7 beliefert.
![Lächeln :) :)](/forum/styles/smilies/smile.gif)
Zum Glück ist GDDR7 im Gegensatz zu GDDR6X für die Allgemeinheit verfügbar. Also: AMD wird ebenfalls bald mit GDDR7 beliefert.
ThirdLife
Captain
- Registriert
- Aug. 2019
- Beiträge
- 3.279
https://www.rockpapershotgun.com/confirmed-ray-tracing-and-dlss-gamesSweetOhm schrieb:Es gibt also nur ein zwei Games, jene mehr RAM benötigen ?
So. Und jetzt kommst du bitte mit einer Liste an VRAM limitierenden Games. Und bitte nicht mit einer 4GB Karte in 4K spielen wollen als Beispiel. Schön der Klasse entsprechend, also FHD.
![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
Brauchen tuts auch keiner. Brauchen tust du Wasser und was zu essen alle paar Wochen. Das "brauchst" du. Was ändert das jetzt an dem Mehrwert dieser Features ? Nix. Was bringt dir mehr VRAM bei einer Karte die eh schon nicht genug Power hat wie der 4060 Ti ? Nüx.SweetOhm schrieb:Und Prozentual gesehen trifft Deine Meinung/Aussage eben auch auf RT und DLSS 3.0 zu !
Keine Behauptung, Fakten. Siehe Liste mit RT/DLSS Games vs. welchen fünf Titeln nochmal die akut VRAM Probleme haben und KEIN Opfer mangelhafter Optimierung/Programmierung sind und für die eine Entry-Level / Midrange GPU jetzt unbedingt 16-32 GB VRAM braucht ?SweetOhm schrieb:Dein/e Zitat/Behauptung :
Das Thema ist erst wirklich relevant wenn Konsolen mehr Speicher haben...vorher wird da nix groß passieren auf breiter Masse gesehen. Kein Entwickler der Geld verdienen will wird Titel bringen die mindestens 16GB brauchen auch bei Medium Settings wenn die Zielgruppe mit solchen GPUs relativ klein ist.
Zuletzt bearbeitet:
G
gidra
Gast
Der Rechnung nach müssten heutigen GK schon längst weit über 1 kW verbrauchen. Die Effizienz steigt mit der Nanometer Verkleinerung und GTX 1080 ist der beste Beweis dafür. Eine High-End GK mit 180 W TDP. Eine GTX 780 davor hatte 250 W und verglichen mit GTX 1080, 100 % weniger Leistung. Das ist Progress, gewesen.[wege]mini schrieb:Die 1080Ti hatte mit GP102 ca. 12 Milliarden Transistoren. Die RTX4090 ist mit AD102 jetzt ca. 76 Milliarden Transistoren groß.
...
Abgesehen von den Kosten in DE für die kW Stunde, ist es auch die Kühlung bzw. die Lautstärke. Wie kann es sein, dass nach 10 Jahren Entwicklung und mehrfacher Verkleinerung des DIEs, die heutige Generation der GK verbraucht mehr an Strom? GTX 780 TI TDP 250 W (2013), RTX 4090 450 W (2023).
ThirdLife
Captain
- Registriert
- Aug. 2019
- Beiträge
- 3.279
Was genau verstehst du nicht ?
Die Effizienz IST besser als bei jeder älteren Karte. Die Ansprüche drumrum sind einfach noch ein vielfaches gestiegen. Von vierfacher Auflösung (UHD/4K) bis hin zu Raytracing oder dem hundertfachen Polycount mancher Objekte in Games.
Lass uns doch zwei Spiele mal vergleichen und schauen was deine 250W 780 Ti so in 4K bei einem Cyberpunk oder Starfield reisst und wer bei 250 W mehr fps drückt.
Wenn man 8-10x mehr Transistoren reindrückt und sie beim fünffachen Takt betreibt, wer hätte gedacht dass das selbst bei einer Strukturverkleinerung eventuell MEHR Energie verbrauchen könnte ?
Wer würde denken dass ein Auto wenn man 400PS Leistung abruft auch für 400 Pesen säuft ? Unmöglich ! 🤣![Augen rollen :rolleyes: :rolleyes:](/forum/styles/smilies/rolleyes.gif)
Die Effizienz IST besser als bei jeder älteren Karte. Die Ansprüche drumrum sind einfach noch ein vielfaches gestiegen. Von vierfacher Auflösung (UHD/4K) bis hin zu Raytracing oder dem hundertfachen Polycount mancher Objekte in Games.
Lass uns doch zwei Spiele mal vergleichen und schauen was deine 250W 780 Ti so in 4K bei einem Cyberpunk oder Starfield reisst und wer bei 250 W mehr fps drückt.
Wenn man 8-10x mehr Transistoren reindrückt und sie beim fünffachen Takt betreibt, wer hätte gedacht dass das selbst bei einer Strukturverkleinerung eventuell MEHR Energie verbrauchen könnte ?
Wer würde denken dass ein Auto wenn man 400PS Leistung abruft auch für 400 Pesen säuft ? Unmöglich ! 🤣
![Augen rollen :rolleyes: :rolleyes:](/forum/styles/smilies/rolleyes.gif)
AssassinWarlord
Lt. Commander
- Registriert
- Okt. 2008
- Beiträge
- 1.036
und ein 400PS Auto kann dennoch einen niedrigeren Verbrauch bei Tempo 120 haben als ein Auto was nur 60PS hat. Gab mal einen Testst mit nem Toyota Prius und nem BMW M5 - der M5 hatte weniger verbraucht bei gleicher sportlicher fahrweise und derselben Geschwindigkeit wie der Prius.
Aber geht ja nicht um Autos, sondern GPUs, auch da kann man das Spiel umdrehen und bei einem Game schauen wieviel die 780TI bei ich sag mal 60FPS braucht, und wieviel eine RTX4090 brauch 60FPS beim selben spiel mit selben Settings an Strom braucht![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
Aber geht ja nicht um Autos, sondern GPUs, auch da kann man das Spiel umdrehen und bei einem Game schauen wieviel die 780TI bei ich sag mal 60FPS braucht, und wieviel eine RTX4090 brauch 60FPS beim selben spiel mit selben Settings an Strom braucht
![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
ThirdLife
Captain
- Registriert
- Aug. 2019
- Beiträge
- 3.279
Ja. Und da wird die 4090 besser abschneiden.AssassinWarlord schrieb:Aber geht ja nicht um Autos, sondern GPUs, auch da kann man das Spiel umdrehen und bei einem Game schauen wieviel die 780TI bei ich sag mal 60FPS braucht, und wieviel eine RTX4090 brauch 60FPS beim selben spiel mit selben Settings an Strom braucht![]()
Es wird wahrscheinlich schwer genug überhaupt nen halbwegs modernen Titel zu finden wo die Karte noch 60 fps drückt. Und mit 60Hz brauch mir heute keiner mehr kommen. Wofür kauft man 120-240Hz OLED Panels mit hoher Auflösung ?
Für die Leute gibts dann auch die entsprechende GPU. Wer mit 1080p und 60fps zufrieden ist kauft sicher keine 4090, somit ist der Vergleich eh abwegig. Das stemmt auch eine 4060 oder 4070 Problemlos bei 100W und natzt eine 780 Ti aber SOWAS von ab.
![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
[wege]mini
Banned
- Registriert
- Juli 2018
- Beiträge
- 8.357
gidra schrieb:Der Rechnung nach müssten heutigen GK schon längst weit über 1 kW verbrauchen.
Daher erklärte ich auf die Frage des Users, wo die Verbesserung der Fertigung geblieben ist.
Die Mehrleistung im Vergleich zur Stromaufnahme, ist tatsächlich sehr beachtlich. Wie viel davon aus der Architektur und wie viel aus der Fertigung kommt, ist Spekulatius.
Und wenn wir dann noch darüber reden würden, wie viel mehr die Karte kosten könnte, wenn man Mehrleistung und Geldwert 1:1 berechnen würde, würde es total unvernünftig, für uns User.
![Heilig :heilig: :heilig:](/forum/styles/smilies/heilig.gif)
mfg
G
gidra
Gast
Wirklich, es ging um GPUs? Nun gut, ein 400 Pferde starke Wagen könnte effizienter sein, wenn der 140 km/s fährt, als ein 4 Gang getriebener Subaru Justy, bei dem ab 160 so oder so Schluss ist. Doch für den Ersten müsste ich 10 Mal geboren und gelebt haben, um ihn mir leisten zu können.AssassinWarlord schrieb:und ein 400PS Auto kann dennoch einen niedrigeren Verbrauch bei Tempo 120 haben als ein Auto was nur 60PS hat. Gab mal einen Testst mit nem Toyota Prius und nem BMW M5 - der M5 hatte weniger verbraucht bei gleicher sportlicher fahrweise und derselben Geschwindigkeit wie der Prius.
Aber geht ja nicht um Autos, sondern GPUs, auch da kann man das Spiel umdrehen und bei einem Game schauen wieviel die 780TI bei ich sag mal 60FPS braucht, und wieviel eine RTX4090 brauch 60FPS beim selben spiel mit selben Settings an Strom braucht![]()
VRam-Bandbreite: gibt es einen Test? 1 Test?
Ich fpürchte, mit 400PS schaffst du keine 140 Kilometer pro Sekunde.gidra schrieb:Wirklich, es ging um GPUs? Nun gut, ein 400 Pferde starke Wagen könnte effizienter sein, wenn der 140 km/s fährt, als ein 4 Gang getriebener Subaru Justy, bei dem ab 160 so oder so Schluss ist.
![Ich muss weg! :mussweg: :mussweg:](/forum/styles/smilies/mussweg.gif)
G
gidra
Gast
gidra schrieb:VRam-Bandbreite: gibt es einen Test? 1 Test?
@ThirdLife
sag niemals nie.Es gibt solche Verrückten Menschen die sich für eine 1080p Auflösung eine rtx 4090 gekauft haben weil sie Angst hatten das die Leistung nicht ausreichen würde und dann auch länger halten würde durch das.
Wobei es kommt ja auf das drauf an,wenn dieser mit Full HD @ 240 HZ oder sowas verwendet ,da kann man schon Leistung brauchen bei Aktuellen Spielen.
sag niemals nie.Es gibt solche Verrückten Menschen die sich für eine 1080p Auflösung eine rtx 4090 gekauft haben weil sie Angst hatten das die Leistung nicht ausreichen würde und dann auch länger halten würde durch das.
Wobei es kommt ja auf das drauf an,wenn dieser mit Full HD @ 240 HZ oder sowas verwendet ,da kann man schon Leistung brauchen bei Aktuellen Spielen.
Ähnliche Themen
- Antworten
- 218
- Aufrufe
- 29.183