News GPU-Gerüchte: Die GeForce GTX 1630 soll noch im Juni vorgestellt werden

Hat Nvidia Intels neuste GPU als Herausforderung betrachtet, eine noch schlechtere Graka auf den Markt zu bringen?

Schon klar, dass das Ding für Office-PCs angedacht ist und man vermutlich Lager leeren und alte Produktskapazitäten freimachen/abstoßen, aber das Ding ist einfach nur ein Fragezeichen.

Ich hatte das "Vergnügen" mit solch einer Entry-GPU als Quadro-Variante zu arbeiten. Die Software hat nur gecrashed, der VRAM war ein Witz und der Performance-Gewinn im besten Fall vorhanden.
 
Ernst gemeinte Frage: Wofür brauche ich so eine dedizierte Karte?
 
Die Grafikkarte aus der Gruselgruft passt GTX 1630 Ghost ganz gut . Zum gruseln
 
  • Gefällt mir
Reaktionen: Hatsune_Miku und Grübelfisch
SVΞN schrieb:
dass die GeForce GTX 1630 die Platine der GeForce GTX 1650 mit 4 GB GDDR6 nutzt, allerdings mit zwei 2-GB- statt vier 1-GB-GDDR6-Chips
Kann der Chip denn theoretisch ein 128 Bit Speicherinterface ansteuern? Wenn ja, könnte man ja zwei zusätzliche Chips aufbringen?
 
  • Gefällt mir
Reaktionen: Hatsune_Miku
Jetzt mal Ernsthaft? Welches Anwendungsszenario hat die Karte?
Die IGPUs reichen für Office ja komplett aus. Zum spielen ist das Teil eigentlich nicht wirklich geeignet.
 
  • Gefällt mir
Reaktionen: alexbirdie
Klasse gerne unter 150 Euro und passiv gekühlt !

frankkl
 
Naja die Karte kommt weil es der "Markt" tatsächlich hergibt.

Eine GT 1030 ist noch einmal DEUTLICH langsamer als die GT 1630 und wird für um die 100€ angeboten.

Die deutlich schnellere RX 6400 kostet um die 170€ und die ähnlich "schnelle" GTX 1050 Ti kostet ebenso um die 180€. Wenn also die GT 1630 am Ende für 120-130€ am Markt ist, dann ist das ein "faires" Angebot.

Die Frage ist eben ob man Zielgruppe ist. Die ist man zum Beispiel mit einer aktuellen RyZen CPU ohne iGPU oder einer Intel F-CPU. Wenn man da bei Defekt der primären GPU fix ein Bild braucht (Master Arbeit beenden was weiß ich) und nichts altes lauffähiges zur Hand hat und für den Notfall mal auf FHD was in 3D machen will --> geht doch.

Man muss es eben einordnen und nicht pauschal draufhauen.
 
  • Gefällt mir
Reaktionen: schneeland und DerKonfigurator
Uff, rein rechnerisch aus Takt und Shader Anzahl ist die GPU Rohrechenleistung ein ganzes Stück geringer als bei der 1050Ti, die Speicherbandbreite sowieso. Kommen zwar noch die Architektur Verbesserungen dazu - aber naja. Wenn ichs nicht übersehen habe fehlt der direkte Vergleich mit einer 1050Ti. Ich habe fast das Gefühl, dass die 1630 langsamer sein könnte bzw. zumindest nicht schneller (okay ist auch ..30 vs. ..50Ti, aber trotzdem... die 1050Ti ist schon fast 6 Jahre alt!). Zum Ablösen einer 1050Ti ist das zumindest nichts (es sei denn bei einem Defekt natürlich). Mal schauen, wo die Karte sich preislich einpendelt. Ich halte mich zumindest von allem fern, was nur ein 64 Bit Speicherinterface hat. Das war damals bei der Riva TNT, GeForce 2MX / GeForce FX 5200 schon nicht brauchbar und man musste aufpassen, dass man nicht so eine erwischt.
Eine gebrauchte 1050Ti ist vielleicht der bessere Deal. Man könnte echt meinen bei der aktuellen Marktsituation schämen sich die Hersteller nicht auch den letzten Müll auf den Markt zu bringen - Siehe auch RX 6400.
 
  • Gefällt mir
Reaktionen: obtar und Grübelfisch
Single-Slot?
Low Profile?
Passiv gekühlt?
In einem HTPC
Ausreichend?
Kann die dann H265 oder können die immer noch nur H264?
Was ist mit anderen Codecs?
Welche HDMI oder gar DP Spezifikationen sind da vorhanden?
 
Intel und auch AMD (RX 6400) haben jeweils eine Enttäuschung im GPU-Sortiment - das kann Nvidia natürlich nicht auf sich sitzen lassen, so war wohl die GTX 1630 geboren.

Also die Karte kann 8k Bild ausgeben - mehr aber auch nicht. Für moderne Spiele untauglich, im Office-PC und Media-PC durch IGPs überflüssig und als kurzzeitige Ersatz-GPU tut es auch eine GT 730.
Dazu für das Gebotene viel zu teuer.

Ich glaube eine hochgezüchtete 1050ti 4GB zieht auch problemlos an Ihrem "Nachfolger" vorbei.

Hoffentlich wurden nur alte teildefekte Chips aus Restbeständen verramscht und nicht extra dafür produziert...
 
  • Gefällt mir
Reaktionen: Hatsune_Miku
Das einzige was an der karte nicht passt ist der Preis.
Ich finde es langsam erschreckend wie viele nicht in der Lage sind über den eigenen Tellerrand zu schauen.
 
@3faltigkeit : im ersten 1630 vs 1050Ti Video wird das Ding schon abgeledert.

Eine RX6400 legt sich mit einer 1650 an, also so mies ist das Teil nicht. Wurde ja auch wie die 6500er eher als "APU-Extender" für eine AMD CPU mit G im Suffix entwickelt.
Die 1630 soll echt im "großen" Mini ITX Design mit "fettem" Lüfter daherkommen?
Bei Wish werden die dann mindestens als potente 1660Super vertrieben werden, oder lassen die sich dann als 3050LE betreiben? Bei dem Bild ist ja mehr Lüfter und PCB vorhanden als GPU, LOL! :D

edith: https://geizhals.de/pny-t600-vcnt600-sb-a2535307.html?hloc=at&hloc=de
also muss die schon mal deutlich BILLIGER als eine Quadro sein.
 
Zuletzt bearbeitet:
xexex schrieb:
Weil es dafür seit Jahren mehr als ausreichend leistungsfähige APUs gibt.
Warum soll ich die ganze Plattform wechseln für 300-400€ wenn es eine 50€ Graka auch tun würde. (wenn es diese denn gäbe)
 
  • Gefällt mir
Reaktionen: cbtestarossa
3faltigkeit schrieb:
Wenn ichs nicht übersehen habe fehlt der direkte Vergleich mit einer 1050Ti. Ich habe fast das Gefühl, dass die 1630 langsamer sein könnte bzw. zumindest nicht schneller (okay ist auch ..30 vs. ..50Ti, aber trotzdem... die 1050Ti ist schon fast 6 Jahre alt!). Zum Ablösen einer 1050Ti ist das zumindest nichts (es sei denn bei einem Defekt natürlich).
Naja, der "Burner" ists nicht, aber so schlecht auch nicht. Wenn man den bisherigen Vergleichen auf youtube trauen kann, dann ist die gtx1630 etwa 10% hinter der 1050Ti.

Edit: Trotz meiner "Verteidigung" der Karte muss ich sagen, dass ich auch enttäuscht bin. Egal ob es "nur" 10% weniger sind - es ist die Tatsache, dass es überhaupt der Fall ist. So knausrig hätte Nvidia echt nicht sein müssen.
 
Zuletzt bearbeitet von einem Moderator:
Floppy5885 schrieb:
Welches Anwendungsszenario
Für den Markt, der einfach eine extra Grafikkarte verlangt - so einfach ist das

Muss ja nichts für Europa sein
 
Floppy5885 schrieb:
Die IGPUs reichen für Office ja komplett aus. Zum spielen ist das Teil eigentlich nicht wirklich geeignet.
Von der Leistung her reichen die locker , sogar ältere igpus (älteste Rechner im Büro ist ein 3570er, wo die igpu genutzt wird für die Wiedergabe von 2 Bildschirmen ohne Probleme) ,
aber die meisten Mainboards haben nur maximal 2 Anschlüsse, alte dvi vga rechne ich da gar nicht mehr dazu, die sind ja eher wegen der Kombatibilität manchmal noch vorhanden .
Eine Slotkarte hat hier schonmal meist 4 Anschlüsse. Und wenn jemand eben 4+ Anschlüsse benötigt, warum auch immer, macht so eine Karte durchaus Sinn.
Stellt sich für mich die Frage, ob es technisch nicht möglich wäre die igpu auf den pcie slot per Adapterkarte das Signal ausgeben zu lassen, dann wären dort ja theoretisch 4+ Anschlüsse möglich.
 
Vitec schrieb:
aber die meisten Mainboards haben nur maximal 2 Anschlüsse, alte dvi vga rechne ich da gar nicht mehr dazu, die sind ja eher wegen der Kombatibilität manchmal noch vorhanden .
Wer Monitore mit etwas Köpfchen kauft, braucht nicht mehr als einen Anschluss.
1656445428655.png

https://www.eizo.ch/de/landingpages/daisy-chain

Vitec schrieb:
Stellt sich für mich die Frage, ob es technisch nicht möglich wäre die igpu auf den pcie slot per Adapterkarte das Signal ausgeben zu lassen, dann wären dort ja theoretisch 4+ Anschlüsse möglich.
Du meinst zum Beispiel so?
1656445713725.png

https://www.computerbase.de/2021-03...-pcie-x4-steckkarte-2x-usb-typ-c-displayport/

Wenn die Monitore kein Daisy Chain unterstützen, lässt sich noch immer ein entsprechender Dock verwenden, der das Signal dann auf mehrere Monitore splittet.
 
  • Gefällt mir
Reaktionen: Vitec
Zurück
Oben