Ganz genau, mit 160 Bit SI für die 10GB Version und 128-Bit für die 8GB Version.dideldei schrieb:Und das wäre auch die letzte Serie mit 6 bis 8GB, denn die 4070 muss ja auch (theoretisch) gelistet werden, die dann sicherlich 10 bis 8 GB haben wird 😁
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GeForce RTX 4090 und 4080: Wie geht die Rechnung von Ada Lovelace für Nvidia aus?
Sas87
Commander
- Registriert
- Juli 2013
- Beiträge
- 2.309
Die Frage wird sein, wie weit Nvidia bereit ist Marktanteile abzugeben um den Gewinn an den einzelnen Karten zu erhöhen um die Aktionäre erstmal kurzfristig zufrieden zu stimmen.
Innerlich habe ich persönlich für die 4000er Generation aber schon mit Nvidia abgeschlossen.
Selbst die 1100 Euro Karte von denen zu kaufen wäre Quatsch, denn ich besitze bereits seit 5 oder 6 Jahren Karten die 11 oder 12 GB VRAM haben.
Man will sich ja auch möglichst überall verbessern bei Grafikkartenupgrades.
AMD bietet ja meist auch VRAM-Steigerungen an.
Innerlich habe ich persönlich für die 4000er Generation aber schon mit Nvidia abgeschlossen.
Selbst die 1100 Euro Karte von denen zu kaufen wäre Quatsch, denn ich besitze bereits seit 5 oder 6 Jahren Karten die 11 oder 12 GB VRAM haben.
Man will sich ja auch möglichst überall verbessern bei Grafikkartenupgrades.
AMD bietet ja meist auch VRAM-Steigerungen an.
W
washieiko
Gast
Die Antworten dürften ruhig diverser und giftiger sein. Bei mir z.B. ist ein Punkt erreicht, bei dem ich nach den letzten Jahren absolut nicht gewillt bin nvidia auch nur einen Euro zu überlassen. Natürlich hängt ds teilweise auch an AMD, aber die haben ihre Kunden nicht die letzten Jahre mit künstlichen Preiserhöhungen(UVP) verarscht. Jetzt kommt mit der 4070 die nächste Schellle in das Gesicht der Kunden. Ich hoffe Nvidis verliert richtig Boden am Aktienmarkt und bekommt die Quittung für ihre Gier. Besonders langfristig scheint man dort jedenfalls nicht zu denken….
Draco Nobilis
Banned
- Registriert
- Jan. 2012
- Beiträge
- 2.943
Also wir sind natürlich in einer Fachseiten Bubble voller Computerverrückter, dennoch sehe ich das 24% der Forenmember planen eine solche Karte zu kaufen.
Noch interessanter das nur 4% den Preis für gerechtfertigt halten.
Was heißt 20% werden wohl aus Gründen des Hobbys, Langeweile oder beruflicher Anforderungen eine solche Karte kaufen.
Das ist recht viel und zeigt das die Preise entgegen meiner bisherigen Überzeugung funktionieren könnten.
Dann wird die nächste Gen halt noch mal, sagen wir 600€, teurer werden müssen. Es sind noch zu viele wird sich NVIDIA denken.
Noch interessanter das nur 4% den Preis für gerechtfertigt halten.
Was heißt 20% werden wohl aus Gründen des Hobbys, Langeweile oder beruflicher Anforderungen eine solche Karte kaufen.
Das ist recht viel und zeigt das die Preise entgegen meiner bisherigen Überzeugung funktionieren könnten.
Dann wird die nächste Gen halt noch mal, sagen wir 600€, teurer werden müssen. Es sind noch zu viele wird sich NVIDIA denken.
Ist schon eine Unverschämtheit.
Die Rtx 4080 ist offensichtlich eine Rtx 4070 die eben einfach in eine Rtx 4080 unbenannt wurde.
Der Grund dafür ist einfach klar. Nvidia hat sich geweigert den AIB'S nachträglich Rabatte auf die Rtx 3000 zu gewähren. So soll einfach durch Kundenverarsche mit falscher Namensgebung eine Höherwertiges Modell suggeriert werden.
Indem der Einstieg bei dem 4000 er verteuert wird, versucht Nvidia die Preise der 3000 er noch hochzuhalten. Dieser Move ist einfach so offensichtlich das hat und nicht nur mit Gestiegenen kosten zu tun.
Nvidia hat gesehen, was die Leute zahlen, und nun versuchen sie eben das Selbst von vorne rein so zu bepreisen. Ich hoffe das die mal so richtig auf die Schnauze damit fliegen, auch wenn ich mir das schon vorher so gedacht habe. Die übertreiben wieder maßlos.
Naja Amd wird einen ähnlichen Weg gehen, sie werden nicht komplett anders Bepreisen.
Ich denke aber es werden genug Leute kaufen, es kann sich jeder kaufen, was er möchte für mich wird es aber definitiv nicht ein teureres Modell wie 500€, für mich ist alles andere Höhere für eine Grafikkarte einfach nicht wert.
Die Rtx 4080 ist offensichtlich eine Rtx 4070 die eben einfach in eine Rtx 4080 unbenannt wurde.
Der Grund dafür ist einfach klar. Nvidia hat sich geweigert den AIB'S nachträglich Rabatte auf die Rtx 3000 zu gewähren. So soll einfach durch Kundenverarsche mit falscher Namensgebung eine Höherwertiges Modell suggeriert werden.
Indem der Einstieg bei dem 4000 er verteuert wird, versucht Nvidia die Preise der 3000 er noch hochzuhalten. Dieser Move ist einfach so offensichtlich das hat und nicht nur mit Gestiegenen kosten zu tun.
Nvidia hat gesehen, was die Leute zahlen, und nun versuchen sie eben das Selbst von vorne rein so zu bepreisen. Ich hoffe das die mal so richtig auf die Schnauze damit fliegen, auch wenn ich mir das schon vorher so gedacht habe. Die übertreiben wieder maßlos.
Naja Amd wird einen ähnlichen Weg gehen, sie werden nicht komplett anders Bepreisen.
Ich denke aber es werden genug Leute kaufen, es kann sich jeder kaufen, was er möchte für mich wird es aber definitiv nicht ein teureres Modell wie 500€, für mich ist alles andere Höhere für eine Grafikkarte einfach nicht wert.
Schöne Sonntagsfrage, nvidia wird momentan in allen Foren ordentlich kritisiert, hoffentlich lassen die Gamer ihren Worten auch Taten folgen.
Für mich ist die 4080 16GB eigentlich schon eine 4070 Ti und die 4080 12 GB eine 4060 Ti, so war zumindest die Abstufung vom Corecount in den vorherigen Gens...
Und wieviele dieser Titel haben eine extrem limitierte Implementation von RT wie z.B. nur RT Shadows?
Bevor wir hier wieder dieselbe Diskussion führen: Raytracing ist eine tolle Technologie, fragt sich halt wieviel fps (durch RT) und Bildqualität (DLSS/FSR) man verlieren kann, damit sich RT noch lohnt.
DLSS 3.0 zeigt bereits im Promomaterial fette Bildfehler (siehe Spider-Mans verschwundene Arme etc.), vor allem in Bewegung, wann und ob nvidia das in den Griff bekommt steht auch wieder in den Sternen.
Für mich ist die 4080 16GB eigentlich schon eine 4070 Ti und die 4080 12 GB eine 4060 Ti, so war zumindest die Abstufung vom Corecount in den vorherigen Gens...
Laphonso schrieb:Das da in der Liste ist das Who is Who der Gaming Franchises und AAA Games.
Unter diesem Aspekt ist es lustig, dass man hier seit Herbst 2018 liest, dass Raytracing keine Rolle spielt, während die Liste der Raytracing Games stetig weiter wächst.
Und wieviele dieser Titel haben eine extrem limitierte Implementation von RT wie z.B. nur RT Shadows?
Bevor wir hier wieder dieselbe Diskussion führen: Raytracing ist eine tolle Technologie, fragt sich halt wieviel fps (durch RT) und Bildqualität (DLSS/FSR) man verlieren kann, damit sich RT noch lohnt.
DLSS 3.0 zeigt bereits im Promomaterial fette Bildfehler (siehe Spider-Mans verschwundene Arme etc.), vor allem in Bewegung, wann und ob nvidia das in den Griff bekommt steht auch wieder in den Sternen.
Soviel Geld für was? …es wird doch nichts released die nächste Zeit fürn PC.
Und im Ernst:
Die alten Perlen erneut mit mehr FPS oder besserer Grafik durchspielen macht doch auch keinen Bock.
Bei mir gibts demnächst zum aktuellen Gaming PC ne PS5 und dann wird das neue God of War gesuchtet. 😎
Und im Ernst:
Die alten Perlen erneut mit mehr FPS oder besserer Grafik durchspielen macht doch auch keinen Bock.
Bei mir gibts demnächst zum aktuellen Gaming PC ne PS5 und dann wird das neue God of War gesuchtet. 😎
Freiheraus
Lt. Commander
- Registriert
- Nov. 2017
- Beiträge
- 1.282
Ich warte auf die RTX 4080 8GB (AD106) oder RTX 4080 6GB (AD107), die könnten für 799,- oder 499,- über den Ladentisch gehen. /s
M
Magnifico
Gast
Es scheint als wenn nvidia weiterhin zu viele Ampere Chips auf Lager hat.
Nun wird der Preis der Nachfolger augenscheinlich so angesetzt das sich Ampere und Lovelace nicht kanibalisieren.
Wurde mittlerweile die Produktion von Ampere zurück gefahren? .
Nun wird der Preis der Nachfolger augenscheinlich so angesetzt das sich Ampere und Lovelace nicht kanibalisieren.
Wurde mittlerweile die Produktion von Ampere zurück gefahren? .
Lors schrieb:Bzgl. der Netzteil bzw. Adapter "Problematik", was haltet ihr denn von diesem Kommentar von dem User "namco":
Ab hier aufgehört zu lesen.......You are so incorrect its not even funny. 600w is the TOTAL power. For the NVIDIA PATENTED 12VHPWR which literally came out with the 3000 series,

Danke für den Beitrag,
Topic: Die Kernfrage ist doch am Ende: Wie viel seid ihr bereit für eine Grafikkarte auszugeben (CAPEX+OPEX)? Ich bin aktuell nicht bereit über 1000€ auszugeben und ich bin auch nicht bereit die thermische Umwandlung in Höhe von ... mitzutragen. Zwei Entwicklungen die einfach völlig an meiner Realität vorbeigehen. Schade, ich hötte mir gern genau die 4080 (16GB) gekauft oder eben das AMD Pendand, mal sehen was dort kommt.
OT: Leider muss ich mal ein Feedback zu dem Fragebogen loswerden. Die Fragen sind nicht gut gestellt und die Antworten passen aus meiner Sicht auch nicht zusammen. Ich kann gern ein Beispiel bringen aber im Grunde läuft es darauf hinaus: Lasst den Fragebogen doch bitte noch einmal mehr querlesen. Es sind Rechtschreibfrehler enthalten und Logikbrüche. Ich empfehle da auch mal das Buch: Surveys that work! Hat mir jedenfalls geholfen.
VIele Grüße
Zanmatou
Topic: Die Kernfrage ist doch am Ende: Wie viel seid ihr bereit für eine Grafikkarte auszugeben (CAPEX+OPEX)? Ich bin aktuell nicht bereit über 1000€ auszugeben und ich bin auch nicht bereit die thermische Umwandlung in Höhe von ... mitzutragen. Zwei Entwicklungen die einfach völlig an meiner Realität vorbeigehen. Schade, ich hötte mir gern genau die 4080 (16GB) gekauft oder eben das AMD Pendand, mal sehen was dort kommt.
OT: Leider muss ich mal ein Feedback zu dem Fragebogen loswerden. Die Fragen sind nicht gut gestellt und die Antworten passen aus meiner Sicht auch nicht zusammen. Ich kann gern ein Beispiel bringen aber im Grunde läuft es darauf hinaus: Lasst den Fragebogen doch bitte noch einmal mehr querlesen. Es sind Rechtschreibfrehler enthalten und Logikbrüche. Ich empfehle da auch mal das Buch: Surveys that work! Hat mir jedenfalls geholfen.
VIele Grüße
Zanmatou
Sternengucker80
Commander
- Registriert
- Sep. 2006
- Beiträge
- 2.398
Ich lehne mich da ganz entspannt zurück. Für das was ich spiele, langt locker meine R VII. Ich hätte mir zwar gerne eine 6900XT gekauft, aber das hatte sich auch schnell erledigt. Erstmal müssten packende/ gescheite Spiele rauskommen, das sich da eine Änderung/ Investition lohnt.
Botcruscher
Captain
- Registriert
- Aug. 2005
- Beiträge
- 4.048
RTX 4070?! Das ist maximal eine 4060TI mit dem Speicherinterface.
FoXX87
Lt. Junior Grade
- Registriert
- Dez. 2011
- Beiträge
- 323
Am besten AMD liefert ein Rundes Produkt + dann noch der Gebrauchtmarkt der alten NV RTX 3080/3090 und NV bleibt auf den neuen Karten im Lager sitzen. Aber die Realität wird eher so sein, das man immer noch genügend neue Karten verkauft und wenn das nicht läuft etwas am Preis geschraubt wird, Marge ist da genügend vorhanden!
Zuletzt bearbeitet:
Henne - Ei PrinzipBeg1 schrieb:Und wieviele dieser Titel haben eine extrem limitierte Implementation von RT wie z.B. nur RT Shadows?

Die Prävalenz von Raytracing fähigen Gaming GPUs ist hier ja erfolgskritisch.
Mehr RT taugliche GPUs = Basis für die Entwickler, dass sich die Adaption lohnt.
Dass es so Diggel Daggel Raytracing in manchen Games gibt, liegt ja nicht zuletzte auch an AMD, die bei Resident Evil und Far Cry 6 verhindern mussten, dass RDNA2 bereits von den alten Turing GPUs deklassiert wird.
Cyberpunk und Metro setzen Raytracing so superb um, weil sie die Atmosphäre und das Spielerlebnis akut beeinflussen.
Das muss der Maßstab sein, und davon brauchen wir mehr.
Witcher 3 mit gutem raytracing wäre pornös.
GTA 6 wird sowieso ein System und GPU+CPU Seller und, darauf verwette ich alles, full Raytracing abliefern.
Bis Cyberpunks Raytracing Standards "normal" werden, dahin wird es etwas dauern, sicher nochmals 1 oder 2 Generationen, so dass bei den Einsteigs Gaming GPUs so etwas wie die 3090 Raytraing Power normal ist.
Es liegt also sogar sehr viel an AMD (und spätestens an der Playstation 6 irgendwann) , dass Raytracing Chips ein fester und leistungsstarker Bestandteil werden auf Konsumer Hardware.
Ich hoffe, dass RDNA 3 auch beim Raytracing zulegt,.
Rasterperformance ist nix mehr, was die Grafikevolution weiterbringt. Das ist künstlich, blasser als RT, optisch limitiert.
Das weiß auch ja AMD.
Ruebennase
Lieutenant
- Registriert
- Sep. 2012
- Beiträge
- 857
Wäre der Euro nicht so schwach und hätten wir keine Inflation dann würde ganz sicher die Karte bei uns auch ca um die 1500 Euro liegen vielleicht ein tick drunter.
syfsyn
Admiral
- Registriert
- Nov. 2010
- Beiträge
- 8.379
nein
nvidia lagert aktuell alle ad104 103 102 chip ein
quasi ersetzt ada den ampere bestand
Die große frage wird sein wie lang nvidia die Taktik fahren kann. amd echte Konkurrenz kommt erst zur ces.
Da ada überraschend schwächer scheint als gedacht.
Ne Aufklärung würde nur das whitepaper vom ad102 bringen.
Allein das fehlen diese Whitepaper sagt das nvidia bis release 12.10 bzw noch später zurückhält.
Das man den Abverkauf von ampere im Auge hat.
Wenn wirklich nur 64 fp32 pro sm sind die nur mit dlss3 erst Hochtakten ~3,0-3,5ghz dann gute Nacht.
Das wird zum Problem werden da man jedes Spiel quasi dlss3 hinzufügen muss.
Oder nvidia überrascht uns und dlss3 wird im Treiberoptionen drin sein.
Dann aber erwarte ich bei Test das dies deaktiviert ist.
nvidia lagert aktuell alle ad104 103 102 chip ein
quasi ersetzt ada den ampere bestand
Die große frage wird sein wie lang nvidia die Taktik fahren kann. amd echte Konkurrenz kommt erst zur ces.
Da ada überraschend schwächer scheint als gedacht.
Ne Aufklärung würde nur das whitepaper vom ad102 bringen.
Allein das fehlen diese Whitepaper sagt das nvidia bis release 12.10 bzw noch später zurückhält.
Das man den Abverkauf von ampere im Auge hat.
Wenn wirklich nur 64 fp32 pro sm sind die nur mit dlss3 erst Hochtakten ~3,0-3,5ghz dann gute Nacht.
Das wird zum Problem werden da man jedes Spiel quasi dlss3 hinzufügen muss.
Oder nvidia überrascht uns und dlss3 wird im Treiberoptionen drin sein.
Dann aber erwarte ich bei Test das dies deaktiviert ist.
DagdaMor
Lt. Commander
- Registriert
- Jan. 2006
- Beiträge
- 1.974
Und nicht nur das.washieiko schrieb:Die Antworten dürften ruhig diverser und giftiger sein. Bei mir z.B. ist ein Punkt erreicht, bei dem ich nach den letzten Jahren absolut nicht gewillt bin nvidia auch nur einen Euro zu überlassen. Natürlich hängt ds teilweise auch an AMD, aber die haben ihre Kunden nicht die letzten Jahre mit künstlichen Preiserhöhungen(UVP) verarscht. Jetzt kommt mit der 4070 die nächste Schellle in das Gesicht der Kunden. Ich hoffe Nvidis verliert richtig Boden am Aktienmarkt und bekommt die Quittung für ihre Gier. Besonders langfristig scheint man dort jedenfalls nicht zu denken….
Man denke an den VRAM-Betrug bei der GTX 970

Lors
Lieutenant
- Registriert
- Okt. 2014
- Beiträge
- 768
Ab hier aufgehört zu lesen.......![]()
Und was hältst du von diesem Kommentar:
http://disq.us/p/2qwj1zu
So, just to make sure people know where I'm coming from so those who failed maths class and/or cannot be bothered to look up a data sheet while using disqus from their mom's basement can stop needlessly trolling....
Look up the data sheet for a mini-fit jr. terminal and do the math. Even do worst case scenario math, if you wish. The "spec" for the 8-pin mini-fit jr. connector is not 150W as the article states. In fact, it's potentially twice that. The 150W specification came down from Nvidia about 10 years ago and was not based on the power delivery capability of the connector. Think about it. What's the difference between a 6-pin and 8-pin in "power rating"? The 6-pin is for 75W and the 8-pin is for 150W. What's the difference between the two? The 8-pin has two sense wires. Two wires that don't even participate in power delivery, yet somehow magically doubles the capability in power delivery? Think about that for a moment.
In fact, the wire to board current rating for a dual row 8-pin connector using HCS 16g terminals is HIGHER than the rating of the terminals used in the 12VHPWR connector (10A vs. 9A). The truncated, redacted, whatever letter received by wccftech failed to mention/show that the melting connectors were actually the 12VHPWR connectors and not 8-pin mini-fit jrs. And you'll probably note that the letter does not make any mention of mini-fit jr., splitters, adapters, etc. Only that they have witness thermal variance.
As for the part about variance between terminals: You can take ANY multi-conductor terminal, micro-fit, mini-fit, etc., and find a variance in resistance, voltage and thermals; especially at higher loads like this.
This is why I take issue with the article. There is NO problem with using the Seasonic dual 8-pin to 12VHPWR shown here: https://www.tomshardware.co..., for example, and the "concerns of thermal variance" does not apply to it whatsoever.
Für mich fühlen sich die Artikel wie von wccftech dazu eher nach Clickbait, übertriebene Panikmache oder gar Ahnungslosigkeit an. Aber vielleicht könntest du und @Tom-S mir mal bitte erklären, was an diesen Kommentaren wie oben zu sehen falsch ist, anstatt nur Einzeiler rauszuhauen.
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 1.733
- Aufrufe
- 181.764