Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GPU-Gerüchte: Die Nvidia GeForce GTX 1650 folgt der 1660 Ti im Frühjahr
- Ersteller Volker
- Erstellt am
- Zur News: GPU-Gerüchte: Die Nvidia GeForce GTX 1650 folgt der 1660 Ti im Frühjahr
Augen1337 schrieb:Früher haben gab es Low End Karten mit unnötig riesigem VRAM, jetzt genau andersrum.
Früher konnten die Boardpartner wohl bestimmen wieviel Vram da drauf gelötet wurde, solange der Chip damit umgehen konnte? Da gab es dann irgendwelche arschlahmen FX-5200 mit 512MB DDR-1-Vram oder ähnliche Kuriositäten. Heute würde das wohl einer 1030 mit 16GB o.ä. entsprechen. Irgendwann muss sich diese Freiheit für die Partner mal geändert haben.
Roche
Banned
- Registriert
- Mai 2017
- Beiträge
- 3.873
milliardo schrieb:Irgendwann muss sich diese Freiheit für die Partner mal geändert haben.
Was auch sehr zu begrüßen ist. Denn letztlich waren solche Karten nichts als Augenwischerei und nutzloser, weil arschlahmer Elektromüll.
Dieses Mehr an Speicher hat man ja nur verbaut um zu suggerieren, dass die Karten total super sind. Aber es war dann eben nur langsamer uraltspeicher, den man zu Billigstpreisen irgendwo eingekauft hat bzw. der vielleicht noch am Lager war, weil er zwei oder drei Generationen vorher nicht auf ner seinerzeit aktuellen Karte gelandet war.
Würde also auch heute keinen Vorteil bringen, wenn diese Entscheidungsfreiheit noch Bestand hätte. Denn wer will denn eine GTX1660 mit 16GB DDR3 Speicher?
Discovery_1
Rear Admiral
- Registriert
- März 2018
- Beiträge
- 5.677
Roche
Banned
- Registriert
- Mai 2017
- Beiträge
- 3.873
Discovery_1 schrieb:Na, die RX580 8G gibt es auch schon unter 200€, da greift doch kein Vernünftiger Mensch zur GTX 1650 von Nvidia.
Glaubst du!
Du musst dir doch nur mal die ganzen "zu hoher Stromverbrauch" Schreihälse anschauen. Die kaufen sich durchaus eher eine solche GTX1650 als die 80W mehr Leistungsaufnahme der RX580 in Kauf zu nehmen.
Discovery_1
Rear Admiral
- Registriert
- März 2018
- Beiträge
- 5.677
Selbst wenn es so sein würde, macht sich das auf der Stromrechnung doch kaum bemerkbar, da müsste die Kiste schon jeden Tag 24/24 lang laufen.
Roche schrieb:Würde also auch heute keinen Vorteil bringen, wenn diese Entscheidungsfreiheit noch Bestand hätte. Denn wer will denn eine GTX1660 mit 16GB DDR3 Speicher?
Also wenn man sich die letzten Diskussionen zu Grafikkarten anschaut, scheint die Speichergröße neuerdings wieder der entscheidende Faktor zu sein. Texturen zurückdrehen ist Mord! ;D
Discovery_1 schrieb:Selbst wenn es so sein würde, macht sich das auf der Stromrechnung doch kaum bemerkbar, da müsste die Kiste schon jeden Tag 24/24 lang laufen.
https://www.stromverbrauchinfo.de/stromkosten-im-alltag.php
Im Notebook geht es dann zudem um die Akkulaufzeit.
auch wenn mich hier bestimmt einige steinigen: das finde ich mal eine interessante sache. ja, 4 GB VRAM sind auch im NB nicht der brüller, aber wenn damit wieder geräte um die 1000€ verfügbar werden, wäre das für mich eine interessante option, mal mein aktuelles NB (mit GTX 860M ... ) zu ersetzen und einen spürbaren leistungsschub zu haben. die 1650 dürfte TDP-mäßig ja deutlich unetrhalb der 1060 liegen und damit auch nicht so laut werden.Volker schrieb:Artikel-Update: Auch für das Notebook soll die GTX 1650 aufgelegt werden, wobei die Basis-Spezifikationen bis auf die Speicherausstattung von 4 GByte noch unbekannt sind. Erste Modelle tauchen in Kombination mit Intels CPU-Refresh im Notebook auf, die dort erstmals bis zu acht Kerne als Core-i-9000-Serie bieten.
[Embed: Zum Betrachten bitte den Artikel aufrufen.]
Die Stromverbrauchdiskussion ist es überhaupt nicht wert geführt zu werden. Ein Rechner wird doch sicher nicht nur zum Zocken benutzt - und nur wenn man Schüler ist, hätte man auch ständig Zeit zu zocken. Ich würde nicht mal auf 1h / Woche kommen im Gesamtjahresschnitt. Und noch schlimmer ist es den VRAM kleinzureden aber auf dem Stromverbrauch zumzuhacken! Ich glaube langsam immer mehr, dass nvidia die Leute bezahlt, in den Foren solchen Mist zu verbreiten!
Discovery_1
Rear Admiral
- Registriert
- März 2018
- Beiträge
- 5.677
Na, xexex, wenn die Tabelle annährend stimmen sollte nimm' ich doch lieber 1€ mehr Stromkosten in Kauf und habe dafür eine halbwegs vernünftige Grafikkarte, mit der ich auch was anfangen kann. Das P/L-Verhälnis für Grakas in den unteren Regionen passt bei Nvidia überhaupt nicht.
Nureinnickname!
Commodore
- Registriert
- Jan. 2010
- Beiträge
- 4.178
hurga_gonzales schrieb:So oder so ähnlich wäre die Produktaufstellung NVidias richtig gewesen:
GTX 2050 (von mir aus späer eine Ti)
GTX 2060
GTX 2070
GTX 2080
GTX 2080 Ti
RTX 2060
RTX 2080
RTX 2080 Ti
So könnte jeder entscheiden, ob er in RT-Kerne investieren mag oder nicht. Dann würden sich die 1st-Generation Preise der RTX Karten auch besser verargumentieren lassen.
Das was NVidia jetzt macht ist Kundenverarsche auf allerhöchstem Niveau...aber naja....kennen wir den Verein anders?
Aktuell lohnt sich ja nicht mal im Entferntesten der Umstieg von einer 980Ti.
Dann würde aber keiner den RTX Schrott kaufen, und Nvidia würde drauf sitzen bleiben.
F
franzerich
Gast
Auch für das Notebook soll die GTX 1650 aufgelegt werden
Wenn das so ist, dann zweifle ich langsam doch, dass eine rtx2050 erscheinen wird. Bis jetzt hab ich noch fest an eine rtx2050 geglaubt, aber mittlerweile nicht mehr. Die werden hier sicher nicht "doppelt gemoppelt" machen.
Das wars dann also mit dem neuen LineUp?
- 20XX für die Oberklasse?
- 16XX für die Mittelklasse?
Dasselbe könnte man allerdings auch für die mx150/mx250/gt1030 sagen. Die braucht kein Mensch mehr neben den integrierten Vega8/11/IntelHD Grafikkarten. Apropos gt1030... was gedenkt Nvidia da als Nachfolger zu bringen? Wird das dann eine gt1630? Am besten wäre es sie würden diesen Low-End Quatsch gleich bleiben lassen. Dann wird's wenigstens wieder übersichtlicher.
Edit:
Bezüglich dem inkonsistenten LineUp: Wahrscheinlich wird es erst mit der 3000er Reihe wieder eine einheitliche und verständliche Namensgebung geben. Und dann vermutlich alle Mittel- und Oberklassechips "RTX" sein. Also ganz ehrlich... da hätten sie locker bis zur 3000er Serie mit dem Raytracing Mist warten können. Da hätten sie sich die ganze verquirlte Namensgebung, Kundenverwirrung und überschneidende Zwischenlösungen sparen können. Einfach nur unnötig!!
Zuletzt bearbeitet von einem Moderator:
habla2k
Rear Admiral
- Registriert
- Sep. 2009
- Beiträge
- 6.070
Ich glaube, dass ein Problem auch die Konsolen sind. Dort gibt es aktuell variable 8GB (Video) Speicher, also knallen die Entwickler die eben voll. Dass man auf dem PC mit 4GB nicht minder hübsche Texturen bauen könnte ist für mich sehr wahrscheinlich. Da die meisten Spiele aber für die Konsolen und damit für 8GB entwickelt werden, wollen sie die auch haben. Selbst wenn sie nicht nötig sind. Wohlgemerkt alles auf Full HD bezogen.
Mit den neuen Konsolen „vor der Tür“, wird sich das auch eher verschlimmern. Dieser Sprung in dem geforderten VRAM kam recht plötzlich vor ein paar Jahren. Davor war das höchstens für Textur Mods entscheidend.
Mit den neuen Konsolen „vor der Tür“, wird sich das auch eher verschlimmern. Dieser Sprung in dem geforderten VRAM kam recht plötzlich vor ein paar Jahren. Davor war das höchstens für Textur Mods entscheidend.
eater
Commander
- Registriert
- Mai 2006
- Beiträge
- 2.407
Also ich warte sehnlichst auf eine 1650, Low Profile. Hab hier noch nen Optiplex 7020, dem würde so eine Graka sehr gut stehen, also lieber heute als morgen.
für jeden, der hofft, dass da mehr als 4gb ram rein kommt, der kann sich jetzt schon enttäuschen. Mehr als 4 gb hieße ja ein 192 bit Breites Speicherinterface - welches teurer wäre, und 8 GB würde die schnelleren Karten abwerten. bleibt noch 6GB mit einem 96Bit breiten Speicherinterface, aber das wäre doch eine Herbe Enttäuschung - es sei denn, die karte hätte sehr schnellen Ram und würde unter 100€ kosten, aber das wird sie nicht.
für jeden, der hofft, dass da mehr als 4gb ram rein kommt, der kann sich jetzt schon enttäuschen. Mehr als 4 gb hieße ja ein 192 bit Breites Speicherinterface - welches teurer wäre, und 8 GB würde die schnelleren Karten abwerten. bleibt noch 6GB mit einem 96Bit breiten Speicherinterface, aber das wäre doch eine Herbe Enttäuschung - es sei denn, die karte hätte sehr schnellen Ram und würde unter 100€ kosten, aber das wird sie nicht.
Roche schrieb:Ich glaube, dass ein Problem auch die Konsolen sind. Dort gibt es aktuell variable 8GB (Video) Speicher, also knallen die Entwickler die eben vol
Auf der Xbox und PS4 sind maximal 5GB für Spiele nutzbar, bei der PS4 Pro 5,5GB und bei der Xbox One X 9GB.
https://www.polygon.com/2017/6/8/15762398/xbox-scorpio-extra-ram-microsoft
Zuletzt bearbeitet:
Revan1710
Captain
- Registriert
- März 2012
- Beiträge
- 3.293
Die 1650 wird es noch schwieriger haben, Akzeptanz zu finden als die 1660 Ti:
Wir bekommen quasi eine etwas langsamere 1060 mit 4 GB für einen Launchpreis von vmtl. 199€. Ergo muss diese wieder erst 50€ im Preis fallen, damit sie attraktiv wird und selbst dann existieren gleichschnelle Alternativen mit doppelt so viel Speicher.
Die 1660 Ti hat wenigstens den Vorteil, dass sie preislich gerade auf einen Bereich zusteuert, der aktuell noch einen sinnvollen Zwischenschritt darstellen kann zwischen 1060/580 und 1070/2060/V56
Wir bekommen quasi eine etwas langsamere 1060 mit 4 GB für einen Launchpreis von vmtl. 199€. Ergo muss diese wieder erst 50€ im Preis fallen, damit sie attraktiv wird und selbst dann existieren gleichschnelle Alternativen mit doppelt so viel Speicher.
Die 1660 Ti hat wenigstens den Vorteil, dass sie preislich gerade auf einen Bereich zusteuert, der aktuell noch einen sinnvollen Zwischenschritt darstellen kann zwischen 1060/580 und 1070/2060/V56
.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.630
Nureinnickname! schrieb:Dann würde aber keiner den RTX Schrott kaufen, und Nvidia würde
franzerich schrieb:da hätten sie locker bis zur 3000er Serie mit dem Raytracing Mist warten können.
Wie bitte? Die größte Verbesserung in Sachen Grafikberechnung seit Einführung des hardwarebeschleunigten Scanliners wird hier als Mist und Schrott bezeichnet?
Und das, nachdem hier 99% der Leute die die Technik beschimpfen, diese selbst schon in ihren Spielen nutzen (nur mit extrem niedriger Qualität)?
Habt Ihr immernoch nicht kapiert, dass das der Weg ist, zu dem die Computergrafik seit anbeginn hinstrebt?
https://www.scratchapixel.com/lessons/3d-basic-rendering/global-illumination-path-tracing
Hier könnt Ihr ab 6:45 mal sehen, was mit Eurer tollen Rasterisierung passiert, wenn man die Szene und Objekte dynamisiert:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Da fällt die Rasterisierung und die stimmige Beleuchtung in sich zusammen wie ein Kartenhaus. Alles Lug und Trug, Getrickse und mit enormen Einschränkungen der Gamedsigner verbunden, die ihre Welten nicht dynamisch gestalten dürfen, wenn sie konsistent bleiben soll.
Wie weit muss man vom Thema Computergrafik entfernt sein, das als Schrott und Mist zu bezeichnen.
Grüße
Zero
Nureinnickname!
Commodore
- Registriert
- Jan. 2010
- Beiträge
- 4.178
ZeroZerp schrieb:Und das, nachdem hier 99% der Leute die die Technik beschimpfen, diese selbst schon in ihren Spielen nutzen (nur mit extrem niedriger Qualität)?
Ähm du hast mich missverstanden, nicht die Technik "Raytracing" ist müll, sondern die Karten an sich ;-) Oder ums ein bisschen freundlicher auszudrücken, die Karten sind mindestens 2 Generationen zu langsam ;-)
Aber das war bis jetzt ja immer so, siehe DX10, usw.
.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.630
Ja- Wir stehen am Anfang.Nureinnickname! schrieb:Ähm du hast mich missverstanden, nicht die Technik "Raytracing" ist müll, sondern die Karten an sich ;-) Oder ums ein bisschen freundlicher auszudrücken, die Karten sind mindestens 2 Generationen zu langsam ;-)
Aber das war bis jetzt ja immer so, siehe DX10, usw.
Sind aber offenbar doch schon soweit zumindest jeweils einen Effekt von RT in Frameraten von 60FPS und mehr in 1440P wiedergeben zu können.
Aber der Meinung darf man natürlich sein, dass das trotzdem noch zu wenig ist. Das empfindet ja jeder anders.
Mehr Leistung darfs unabhängig von RT ja generell immer sein
Und bis tatsächlich ein vollständiges Path- Tracing in den AAA Produktionen Einzug hält, vergehen sicher noch ein par Generationen an Grafikkarten.
Ich bin heilfroh, wenn wir von der Krücke der Rasterisierung wegkommen und endlich volldynamische Szenarien möglich sind. Was das gerade in Sachen Spieledesign für neue Möglichkeiten schaffen könnte.....
Grüße
Zero
Ähnliche Themen
- Antworten
- 305
- Aufrufe
- 53.734
- Antworten
- 82
- Aufrufe
- 11.832
- Antworten
- 13
- Aufrufe
- 5.397
- Antworten
- 83
- Aufrufe
- 20.544
- Antworten
- 71
- Aufrufe
- 14.236