News Nvidia GeForce: Taiwanischer Hersteller präsentiert RTX 3070 mit 16 GB

Samuelz schrieb:
CB sagt im Artikel 8GB reichen nicht mehr, verlinkt als Beweis Hogwarts Day 1 Test…Wirkt wirklich sehr journalistisch professionell herausgearbeitet.

Ich dachte jetzt kommt ein Test mit 20 Spielen wovon 18 mehr als 8 GB brauchen. Lächerlich, einfach mal behaupten das 8 GB nicht mehr ausreichend sind.
Ja, in diesem Artilel finde ich es sehr journalstisch professionell herausgesrbeitet warum 8GB nicht mehr ausreichend sein werden:
https://www.computerbase.de/artikel/grafikkarten/rangliste.2487/

Sind auch alle Gametests verlinkt, die mit 8GB schon jetzt in 1080p zu kämpfen haben ;)
Samuelz schrieb:
Passt ja ganz gut in die heutige Zeit, denn Nvidia zu kritisieren bringt immer sehr viel Klicks und Zustimmung.
Zu Recht, da NV seit Generationen mit VRAM in der Mittel- und Oberklasse geizt, und selbst dafür auch schon zu viel Geld will.
Nur das jeweilige Top Produkt der Gens hat genug VRAM, kostet aber auch exorbitant viel Kohle.
Also darf man zu Recht kritisieren.
 
  • Gefällt mir
Reaktionen: bullit1, M11E, Tensai44 und 8 andere
Axxid schrieb:
Eigentlich sollte man so etwas als Kunde auch abstrafen, aber schau mal: mein grüner Balken ist länger als dein roter!!!
Jaja, die rote Charity-Klitsche, gell...
Die Leute sind schon doof, wenn sie sich ihr Produkt anhand ihres Bedarfs und nicht nach moralischen Gesichtspunkten und der Sozialpolitik der Unternehmen aussuchen. 🙄
 
  • Gefällt mir
Reaktionen: .Sentinel.
danyundsahne schrieb:
Ja, in diesem Artilel finde ich es sehr journalstisch professionell herausgesrbeitet warum 8GB nicht mehr ausreichend sein werden:
https://www.computerbase.de/artikel/grafikkarten/rangliste.2487/

Sind auch alle Gametests verlinkt, die mit 8GB schon jetzt in 1080p zu kämpfen haben ;)

Zu Recht, da NV seit Generationen mit VRAM in der Mittel- und Oberklasse geizt, und selbst dafür auch schon zu viel Geld will.
Nur das jeweilige Top Produkt der Gens hat genug VRAM, kostet aber auch exorbitant viel Kohle.
Also darf man zu Recht kritisieren.
Kann ich nicht bestätigen. Und außerdem verbaut AMD auch nur 8GB VRAM. Komischerweise ist dort aber weniger schlimm.

https://www.computerbase.de/forum/t...t-8-gb-speicher.2143349/page-14#post-28192604
 
Holzinternet schrieb:
Vielleicht rennen nicht alle Spiele ohne Tweak problemlos aber ich bekomme 16GB Vram und mindestens die Leistung meiner 1080. Reicht mir. Bis auf wenige Ausnahmen kommt in der Spielewelt seit 3 Jahren nur noch Quark und Mist. Habe mir dieses Jahr bis dato kein Spiel gekauft zum Erscheinungszeitpunkt. Auch danach nicht.

Und letztes Jahr war es lediglich Distant Worlds II.
Und wozu brauchst du dann diese 16GB Speicher?
Die sind doch nur sinnvoll, wenn du dir aktuelle Spiele kaufst, für die man diese Speichermenge auch wirklich benötigt. Ansonsten kannst du auch bei deiner 1080 bleiben und schauen, was der Markt in Zukunft parat hat.

Zumal die 16GB auf einer A770 totaler Quatsch sind, da ihre Rohleistung zu niedrig ist.
Also sofern du nicht anderweitig Anwendungen nutzt, die massiv auf den GPU Speicher setzen, gibt es keinen Grund für diese Karte.
Da wäre eine RX 6700XT wohl eher sinnvoll.
Ergänzung ()

Samuelz schrieb:
Und außerdem verbaut AMD auch nur 8GB VRAM. Komischerweise ist dort aber weniger schlimm.
AMD verlangt für seine 8GB Karte halt keine 439€ Liste, sondern gibt sich mit 299€ zufrieden.
Das macht die Karte zwar als Produkt an sich nicht besser, wirkt aber auf den Kunden weit weniger abzockerisch.

Bei unter 300€ sagt der Kunde halt noch "ja ok, sind nur 8GB, aber dafür ist es "güstig" ".
Bei über 400€ für eine 8GB Karte schüttelt jeder nur noch mit dem Kopf.
 
  • Gefällt mir
Reaktionen: bullit1, alkaAdeluxx, medsommer und 9 andere
|SoulReaver| schrieb:
Zum Lachen. Nvidia geizt mit Vram, und im Jungle ganz hinten bauen "Buden" mal schnell eine Karte mit 16GB.
Das ist Taiwan digger :freak:

Wir sitzen im Dschungel ganz hinten...
 
  • Gefällt mir
Reaktionen: Balisontrop, Xiaolong, medsommer und eine weitere Person
|SoulReaver| schrieb:
Zum Lachen. Nvidia geizt mit Vram, und im Jungle ganz hinten bauen "Buden" mal schnell eine Karte mit 16GB.
Insel!🙄
 
  • Gefällt mir
Reaktionen: medsommer
Samuelz schrieb:
Kann ich nicht bestätigen. Und außerdem verbaut AMD auch nur 8GB VRAM. Komischerweise ist dort aber weniger schlimm.

https://www.computerbase.de/forum/t...t-8-gb-speicher.2143349/page-14#post-28192604
Richtig, bei den Einsteigerkarten....ab der 350€ 6700(XT) gibt es sogar schon 10GB/12GB.

16GB gibt's da ab 450€ (RX6800).
Und wie viel besser die 6800 gegen eine 3070 8GB läuft, hat man im HUB Test sehr gut gesehen.
Selbst mit RT kackt hier die 3070 8GB ab. Und die Karte kostet noch 450-550€!?

Bei NV gibt es 12GB erst ab 600€+, 16GB ab 1180€+... Sorry, das ist ein Witz.


Also jetzt tu net so. Du weißt das genau dass NV knausert wo es nur geht und als Geschenk für die Käufer dazu noch extra abkassiert.
8GB kostet NV im Einkauf vll 30-50$USD...
 
  • Gefällt mir
Reaktionen: medsommer, McFritte, martin_m und eine weitere Person
der 3070er hätte von anfang an 12gb vram gut gestanden. aber nvidia baute ja wieder ein nicht nachhaltiges müllprodukt. leistung für qhd hat die karte auch neute noch genug (etwa soviel wie meine 2080ti). jetzt ist der zug eh abgefahren und die karte interessiert doch (für den preis) keine sau mehr. auch nicht mit 16gb.

grüße
 
  • Gefällt mir
Reaktionen: bullit1
So wie man diese Copycats kennt, hängt da sicher ein USB Stick mit zusätzlichen 8GB dran
 
  • Gefällt mir
Reaktionen: romeon und FGA
Dass NVIDIA das überhaupt nicht-technisch unterbinden kann/darf...
Ergänzung ()

Piak schrieb:
Offtopic: Wieso gibt es überhaupt noch Hdmi, Displayport, dvi...alle zu usb c zwingen. Weniger Kabel, weniger adapter, aber nachhaltiger.
Wie viele nutzen alle Ausgänge einer GPU? Die wenigsten. Die meisten nehmen den einen passenden Anschluss, womit Adapter gespart werden, was also nachhaltiger ist.

Oder willst du, dass ich meine Monitore alle tausche? Nix da!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: M11E, NMA, Master Chief ! und eine weitere Person
Piak schrieb:
Offtopic: Wieso gibt es überhaupt noch Hdmi, Displayport, dvi...alle zu usb c zwingen. Weniger Kabel, weniger adapter, aber nachhaltiger.
Und wer bezahlt die neuen Monitore? Bestimmt niemand. Das wäre ein Jahrelanger Prozess - ich würde mich nicht zur 800€ GPU direkt nen neuen 500€ Monitor kaufen wollen. Dazu dann wieder ein Apdaterwahn ala DP/HDMI zu USB C - neeeeee danke. 😁

Wird spannend ob Nvidia nachzieht oder tatsächlich irgendwie gegen angeht.
 
  • Gefällt mir
Reaktionen: IsaacClarke, Master Chief ! und Kenshin_01
RaptorTP schrieb:
geh mir mit dem Schmutz weg.
Vor allem für Bildschirme möchte ich ein Kabel das auch "stabil" sitzt.

USB-C ist ganz nett für das Phone oder eben andere mobile Geräte die täglich ein- / ausgesteckt werden müssen.

Hinten am Bildschirm/ Graka völlig unnötig.

Die Karten wirken für mich wie eine AliExpress Karte xD .... hat die Karte wirklich 16GB oder zeigt das nur GPU-Z beim Auslesen xD
Kann ich nur bestätigen. STÄNDIG melden sich Nutzer bei mir, dass ihre Notebooks nicht mehr richtig laden, die Monitore an der Docking Station ausfallen, Netzwerk wegfällt usw. Warum? Weil der USB-C Stecker am Notebook so wackelig ist, dass die Kontakte nicht mehr richtig sitzen. Das Problem ist die Hebelwirkung, welche sich entwickeln kann.
Das Ergebnis ist oft, dass das gesamte Board ausgetauscht werden muss, weil der USB-C Anschluss fest verbaut ist.
 
  • Gefällt mir
Reaktionen: Whetstone, NMA, IsaacClarke und 2 andere
Ich kaufe nur Titel die maximal 8GB VRam benötigen unter Full-HD. Ich hab gar nicht so viel Zeit selbst mit dieser Einschränkung alle größeren Titel zu spielen die max 8GB benötigen. Also bleibt das auch so lange so bis die Karte stirbt. Auf die Tricks von NVidia falle ich nicht rein. Ich kaufe nicht, danke.
 
  • Gefällt mir
Reaktionen: martin_m
Lan_Party94 schrieb:
Und wer bezahlt die neuen Monitore? Bestimmt niemand. Das wäre ein Jahrelanger Prozess - ich würde mich nicht zur 800€ GPU direkt nen neuen 500€ Monitor kaufen wollen. Dazu dann wieder ein Apdaterwahn ala DP/HDMI zu USB C - neeeeee danke. 😁
Du könntest dennoch sagen wir machen jetzt einfach mal einen USB4.0 USB-C Anschluss dran neben dem klassischen DisplayPort.
Wenn ich mich nich sehr irre sollte man damit auch mehrere Monitore in Reihe geschaltet daran betreiben können.
 
  • Gefällt mir
Reaktionen: NMA
riloka schrieb:
Du könntest dennoch sagen wir machen jetzt einfach mal einen USB4.0 USB-C Anschluss dran neben dem klassischen DisplayPort.
Sicher könnte er das und abseits von höherem Preis gäbe es erstmal auch keine Nachteile.
Zum Problem würde es erst werden, wenn die Hersteller feststellen dass dieser Drecksanschluss billiger ist und keine anderen mehr verbauen.

Pr0krastinat0r hat einige der gängigen Probleme bereits angeschnitten.
Ein Anschluss das nur eines kann ist idR besser als einer das vieles kann und nichts davon richtig.

Aber keine Sorge, da kaum einer noch auf Qualität achtet und Quantität immer den Vorzug gibt wird sich auch USB-C überall ausbreiten - dauert eben nur etwas.


btt
Die 16GB hätte der Karte von Anfang an gut gestanden, jetzt ist es nur noch Resteverwertung.
 
  • Gefällt mir
Reaktionen: M11E, medsommer, ReVan1199 und eine weitere Person
In der Regel, wobei ich nach den neuesten Standards für USB da eher wenig sehe dass dagegen spricht.

https://www.golem.de/news/usb-c-usb-4-bekommt-displayport-2-0-als-alt-mode-2004-148176.html
Displayport 2.0 eignet sich für 8K-UHD mit 7.680 x 4.320 Pixeln bei 60 Hz mit voller 4:4:4-Abtastung sowie 10 Bit pro Farbkanal für HDR10. Ohne High Dynamic Range ist 10K bei 60 Hz umsetzbar, wird hingegen DSC (Display Stream Compression) eingesetzt, klappt sogar 16K bei 60 Hz im SDR-Betrieb (8 Bit pro Kanal). Auf zwei Monitoren entspricht das dann zwei 4K-Displays mit 144 Hz und SDR oder drei Bildschirmen mit 4K bei 90 Hz.

Ich bin in dem Thema jetzt nicht zu tief drin aber da dürfte doch der Unterschied zu den HDMI & DisplayPort Varianten ziemlich zusammenschrumpfen oder fehlt was Essentielles dass dann in einer neuen Version des Standards mit aufgenommen werden könnte?
 
Das Problem bei USB-C ist neben dem offensichtlich Mechanischem auch die Diskrepanz zwischen dem was es theoretisch könnte und was tatsächlich umgesetzt wird - da blickt kaum einer durch...

Erstes kann eher nicht wirklich verbessert werden - wäre ja kein USB-C mehr.
Zweites ist eine Geldfrage und damit ist und war von Anfang an klar was passieren wird.
 
  • Gefällt mir
Reaktionen: NMA
Na 16GB sind auch vernünftig und zukunftssicher...Aber NVidia muss denen ja die Chip nicht liefern.
 
danyundsahne schrieb:
Richtig, bei den Einsteigerkarten....ab der 350€ 6700(XT) gibt es sogar schon 10GB/12GB.

16GB gibt's da ab 450€ (RX6800).
Und wie viel besser die 6800 gegen eine 3070 8GB läuft, hat man im HUB Test sehr gut gesehen.
Selbst mit RT kackt hier die 3070 8GB ab. Und die Karte kostet noch 450-550€!?

Bei NV gibt es 12GB erst ab 600€+, 16GB ab 1180€+... Sorry, das ist ein Witz.


Also jetzt tu net so. Du weißt das genau dass NV knausert wo es nur geht und als Geschenk für die Käufer dazu noch extra abkassiert.
8GB kostet NV im Einkauf vll 30-50$USD...
Bla Bla Bla. Ändert trotzdem nichts daran, dass die meisten Spiele in FHD ohne RT mit 8GB locker auskommen.
 
  • Gefällt mir
Reaktionen: Zarlak und Master Chief !
Zurück
Oben