News GPU-Gerüchte: Die Nvidia GeForce GTX 1650 folgt der 1660 Ti im Frühjahr

4 GB VRAM. Und tschüss...
Mag ja jetzt noch gerade reichen. Aber wer hat denn Bock sich in nem halben Jahr wieder ne Karte zu holen
 
Augen1337 schrieb:
Früher haben gab es Low End Karten mit unnötig riesigem VRAM, jetzt genau andersrum.

Früher konnten die Boardpartner wohl bestimmen wieviel Vram da drauf gelötet wurde, solange der Chip damit umgehen konnte? Da gab es dann irgendwelche arschlahmen FX-5200 mit 512MB DDR-1-Vram oder ähnliche Kuriositäten. Heute würde das wohl einer 1030 mit 16GB o.ä. entsprechen. Irgendwann muss sich diese Freiheit für die Partner mal geändert haben.
 
milliardo schrieb:
Irgendwann muss sich diese Freiheit für die Partner mal geändert haben.

Was auch sehr zu begrüßen ist. Denn letztlich waren solche Karten nichts als Augenwischerei und nutzloser, weil arschlahmer Elektromüll.
Dieses Mehr an Speicher hat man ja nur verbaut um zu suggerieren, dass die Karten total super sind. Aber es war dann eben nur langsamer uraltspeicher, den man zu Billigstpreisen irgendwo eingekauft hat bzw. der vielleicht noch am Lager war, weil er zwei oder drei Generationen vorher nicht auf ner seinerzeit aktuellen Karte gelandet war.

Würde also auch heute keinen Vorteil bringen, wenn diese Entscheidungsfreiheit noch Bestand hätte. Denn wer will denn eine GTX1660 mit 16GB DDR3 Speicher?
 
Na, die RX580 8G gibt es auch schon unter 200€, da greift doch kein Vernünftiger Mensch zur GTX 1650 von Nvidia.
 
  • Gefällt mir
Reaktionen: Smartbomb, onkel-foehn, Sennox und 2 andere
Discovery_1 schrieb:
Na, die RX580 8G gibt es auch schon unter 200€, da greift doch kein Vernünftiger Mensch zur GTX 1650 von Nvidia.

Glaubst du!
Du musst dir doch nur mal die ganzen "zu hoher Stromverbrauch" Schreihälse anschauen. Die kaufen sich durchaus eher eine solche GTX1650 als die 80W mehr Leistungsaufnahme der RX580 in Kauf zu nehmen.
 
  • Gefällt mir
Reaktionen: onkel-foehn und Otsy
Selbst wenn es so sein würde, macht sich das auf der Stromrechnung doch kaum bemerkbar, da müsste die Kiste schon jeden Tag 24/24 lang laufen.
 
  • Gefällt mir
Reaktionen: Otsy
Roche schrieb:
Würde also auch heute keinen Vorteil bringen, wenn diese Entscheidungsfreiheit noch Bestand hätte. Denn wer will denn eine GTX1660 mit 16GB DDR3 Speicher?

Also wenn man sich die letzten Diskussionen zu Grafikkarten anschaut, scheint die Speichergröße neuerdings wieder der entscheidende Faktor zu sein. Texturen zurückdrehen ist Mord! ;D
 
Discovery_1 schrieb:
Selbst wenn es so sein würde, macht sich das auf der Stromrechnung doch kaum bemerkbar, da müsste die Kiste schon jeden Tag 24/24 lang laufen.
1551429414694.png

https://www.stromverbrauchinfo.de/stromkosten-im-alltag.php

Im Notebook geht es dann zudem um die Akkulaufzeit.
 
Volker schrieb:
Artikel-Update: Auch für das Notebook soll die GTX 1650 aufgelegt werden, wobei die Basis-Spezifikationen bis auf die Speicherausstattung von 4 GByte noch unbekannt sind. Erste Modelle tauchen in Kombination mit Intels CPU-Refresh im Notebook auf, die dort erstmals bis zu acht Kerne als Core-i-9000-Serie bieten.

[Embed: Zum Betrachten bitte den Artikel aufrufen.]
auch wenn mich hier bestimmt einige steinigen: das finde ich mal eine interessante sache. ja, 4 GB VRAM sind auch im NB nicht der brüller, aber wenn damit wieder geräte um die 1000€ verfügbar werden, wäre das für mich eine interessante option, mal mein aktuelles NB (mit GTX 860M ... ;) ) zu ersetzen und einen spürbaren leistungsschub zu haben. die 1650 dürfte TDP-mäßig ja deutlich unetrhalb der 1060 liegen und damit auch nicht so laut werden.
 
Die Stromverbrauchdiskussion ist es überhaupt nicht wert geführt zu werden. Ein Rechner wird doch sicher nicht nur zum Zocken benutzt - und nur wenn man Schüler ist, hätte man auch ständig Zeit zu zocken. Ich würde nicht mal auf 1h / Woche kommen im Gesamtjahresschnitt. Und noch schlimmer ist es den VRAM kleinzureden aber auf dem Stromverbrauch zumzuhacken! Ich glaube langsam immer mehr, dass nvidia die Leute bezahlt, in den Foren solchen Mist zu verbreiten!
 
  • Gefällt mir
Reaktionen: Smartbomb, onkel-foehn und Sennox
Na, xexex, wenn die Tabelle annährend stimmen sollte nimm' ich doch lieber 1€ mehr Stromkosten in Kauf und habe dafür eine halbwegs vernünftige Grafikkarte, mit der ich auch was anfangen kann. Das P/L-Verhälnis für Grakas in den unteren Regionen passt bei Nvidia überhaupt nicht.
 
  • Gefällt mir
Reaktionen: onkel-foehn, Sennox, Otsy und eine weitere Person
hurga_gonzales schrieb:
So oder so ähnlich wäre die Produktaufstellung NVidias richtig gewesen:
GTX 2050 (von mir aus späer eine Ti)
GTX 2060
GTX 2070
GTX 2080
GTX 2080 Ti
RTX 2060
RTX 2080
RTX 2080 Ti

So könnte jeder entscheiden, ob er in RT-Kerne investieren mag oder nicht. Dann würden sich die 1st-Generation Preise der RTX Karten auch besser verargumentieren lassen.
Das was NVidia jetzt macht ist Kundenverarsche auf allerhöchstem Niveau...aber naja....kennen wir den Verein anders?
Aktuell lohnt sich ja nicht mal im Entferntesten der Umstieg von einer 980Ti.

Dann würde aber keiner den RTX Schrott kaufen, und Nvidia würde drauf sitzen bleiben.
 
Auch für das Notebook soll die GTX 1650 aufgelegt werden

Wenn das so ist, dann zweifle ich langsam doch, dass eine rtx2050 erscheinen wird. Bis jetzt hab ich noch fest an eine rtx2050 geglaubt, aber mittlerweile nicht mehr. Die werden hier sicher nicht "doppelt gemoppelt" machen.

Das wars dann also mit dem neuen LineUp?
  • 20XX für die Oberklasse?
  • 16XX für die Mittelklasse?
Und für die Unterklasse? Ja genau, was eigentlich? Zwischen der künftigen mx250 (die ja gleich wie die mx150 und gt1030 sein soll) und der gt1650 klafft eine riesige Lücke. Noch größer als zwischen mx150 und gtx1050. Zugegeben für moderne Spiele ist dieser Zwischenbereich eh nicht mehr interessant. Trotzdem verwunderlich wenn der leer bleibt.
Dasselbe könnte man allerdings auch für die mx150/mx250/gt1030 sagen. Die braucht kein Mensch mehr neben den integrierten Vega8/11/IntelHD Grafikkarten. Apropos gt1030... was gedenkt Nvidia da als Nachfolger zu bringen? Wird das dann eine gt1630? Am besten wäre es sie würden diesen Low-End Quatsch gleich bleiben lassen. Dann wird's wenigstens wieder übersichtlicher.

Edit:
Bezüglich dem inkonsistenten LineUp: Wahrscheinlich wird es erst mit der 3000er Reihe wieder eine einheitliche und verständliche Namensgebung geben. Und dann vermutlich alle Mittel- und Oberklassechips "RTX" sein. Also ganz ehrlich... da hätten sie locker bis zur 3000er Serie mit dem Raytracing Mist warten können. Da hätten sie sich die ganze verquirlte Namensgebung, Kundenverwirrung und überschneidende Zwischenlösungen sparen können. Einfach nur unnötig!!
 
Zuletzt bearbeitet von einem Moderator:
Ich glaube, dass ein Problem auch die Konsolen sind. Dort gibt es aktuell variable 8GB (Video) Speicher, also knallen die Entwickler die eben voll. Dass man auf dem PC mit 4GB nicht minder hübsche Texturen bauen könnte ist für mich sehr wahrscheinlich. Da die meisten Spiele aber für die Konsolen und damit für 8GB entwickelt werden, wollen sie die auch haben. Selbst wenn sie nicht nötig sind. Wohlgemerkt alles auf Full HD bezogen.

Mit den neuen Konsolen „vor der Tür“, wird sich das auch eher verschlimmern. Dieser Sprung in dem geforderten VRAM kam recht plötzlich vor ein paar Jahren. Davor war das höchstens für Textur Mods entscheidend.
 
  • Gefällt mir
Reaktionen: SIR_Thomas_TMC
Also ich warte sehnlichst auf eine 1650, Low Profile. Hab hier noch nen Optiplex 7020, dem würde so eine Graka sehr gut stehen, also lieber heute als morgen.
für jeden, der hofft, dass da mehr als 4gb ram rein kommt, der kann sich jetzt schon enttäuschen. Mehr als 4 gb hieße ja ein 192 bit Breites Speicherinterface - welches teurer wäre, und 8 GB würde die schnelleren Karten abwerten. bleibt noch 6GB mit einem 96Bit breiten Speicherinterface, aber das wäre doch eine Herbe Enttäuschung - es sei denn, die karte hätte sehr schnellen Ram und würde unter 100€ kosten, aber das wird sie nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: onkel-foehn
Die 1650 wird es noch schwieriger haben, Akzeptanz zu finden als die 1660 Ti:
Wir bekommen quasi eine etwas langsamere 1060 mit 4 GB für einen Launchpreis von vmtl. 199€. Ergo muss diese wieder erst 50€ im Preis fallen, damit sie attraktiv wird und selbst dann existieren gleichschnelle Alternativen mit doppelt so viel Speicher.
Die 1660 Ti hat wenigstens den Vorteil, dass sie preislich gerade auf einen Bereich zusteuert, der aktuell noch einen sinnvollen Zwischenschritt darstellen kann zwischen 1060/580 und 1070/2060/V56
 
Nureinnickname! schrieb:
Dann würde aber keiner den RTX Schrott kaufen, und Nvidia würde

franzerich schrieb:
da hätten sie locker bis zur 3000er Serie mit dem Raytracing Mist warten können.

Wie bitte? Die größte Verbesserung in Sachen Grafikberechnung seit Einführung des hardwarebeschleunigten Scanliners wird hier als Mist und Schrott bezeichnet?

Und das, nachdem hier 99% der Leute die die Technik beschimpfen, diese selbst schon in ihren Spielen nutzen (nur mit extrem niedriger Qualität)?

Habt Ihr immernoch nicht kapiert, dass das der Weg ist, zu dem die Computergrafik seit anbeginn hinstrebt?
https://www.scratchapixel.com/lessons/3d-basic-rendering/global-illumination-path-tracing

Hier könnt Ihr ab 6:45 mal sehen, was mit Eurer tollen Rasterisierung passiert, wenn man die Szene und Objekte dynamisiert:
Ab 12:10 sieht man die (nicht entrauschte) Raytracing- Szene.

Da fällt die Rasterisierung und die stimmige Beleuchtung in sich zusammen wie ein Kartenhaus. Alles Lug und Trug, Getrickse und mit enormen Einschränkungen der Gamedsigner verbunden, die ihre Welten nicht dynamisch gestalten dürfen, wenn sie konsistent bleiben soll.

Wie weit muss man vom Thema Computergrafik entfernt sein, das als Schrott und Mist zu bezeichnen.

Grüße
Zero
 
ZeroZerp schrieb:
Und das, nachdem hier 99% der Leute die die Technik beschimpfen, diese selbst schon in ihren Spielen nutzen (nur mit extrem niedriger Qualität)?

Ähm du hast mich missverstanden, nicht die Technik "Raytracing" ist müll, sondern die Karten an sich ;-) Oder ums ein bisschen freundlicher auszudrücken, die Karten sind mindestens 2 Generationen zu langsam ;-)

Aber das war bis jetzt ja immer so, siehe DX10, usw.
 
  • Gefällt mir
Reaktionen: Sennox, onkel-foehn, franzerich und eine weitere Person
Nureinnickname! schrieb:
Ähm du hast mich missverstanden, nicht die Technik "Raytracing" ist müll, sondern die Karten an sich ;-) Oder ums ein bisschen freundlicher auszudrücken, die Karten sind mindestens 2 Generationen zu langsam ;-)

Aber das war bis jetzt ja immer so, siehe DX10, usw.
Ja- Wir stehen am Anfang.

Sind aber offenbar doch schon soweit zumindest jeweils einen Effekt von RT in Frameraten von 60FPS und mehr in 1440P wiedergeben zu können.

Aber der Meinung darf man natürlich sein, dass das trotzdem noch zu wenig ist. Das empfindet ja jeder anders.
Mehr Leistung darfs unabhängig von RT ja generell immer sein ;)
Und bis tatsächlich ein vollständiges Path- Tracing in den AAA Produktionen Einzug hält, vergehen sicher noch ein par Generationen an Grafikkarten.

Ich bin heilfroh, wenn wir von der Krücke der Rasterisierung wegkommen und endlich volldynamische Szenarien möglich sind. Was das gerade in Sachen Spieledesign für neue Möglichkeiten schaffen könnte.....

Grüße
Zero
 
Zurück
Oben