News GPU-Gerüchte: Die GeForce GTX 1630 soll noch im Juni vorgestellt werden

fortunes schrieb:
Wenn man die Settings so platziert, dass der VRAM nicht überläuft, ziehen die Radeons davon.
Achso: Dann soll man in Vergleichstests also nicht die gleichen Einstellungen für alle Karten wählen, sondern lieber für jede Karte nach optimalen Settings suchen? Sorry, aber das entspricht nicht meiner Erwartung an einen fairen Vergleich. Karten mit schmalem Interface und wenig VRAM brechen bei hohen Anforderungen an den VRAM eben massiv ein. Warum sollte man diese Tatsache verstecken?
 
  • Gefällt mir
Reaktionen: Vulture
Revan1710 schrieb:
Wenn ich dabei trotzdem ~170 € für die Graffikarte berappen muss, lohnt sich das einfach nicht mehr.

Statt einem Ryzen 5900 + 1630 hol ich mir dann doch lieber einen 10900 bspw. Dazu wird diese Niesche für die 1630 noch deutlich kleiner, wenn Ryzen 7000 als APUs kommen.
Dem kann ich zustimmen. Verstehe zwar nicht, warum ausgerechnet den 10900, aber ja, bei den Grafikkartenpreisen kauft man lieber ein System mit IGP. Also Intel. Gut für AMD, dass sie in kommenden CPUs überall eine IGP verbauen.
 
  • Gefällt mir
Reaktionen: Revan1710
@latiose88

280 hz Monitor mit gsync/freesync

Auf Inferno oder Nuke gab es Drops auf unter 150 fps, war für mich nicht akzeptabel.


Nun hab ich mir vor 2 Monaten für 550 Euro eine rx 6700 xt geholt und hab immer meine 280 fps, aber gaming erstmal aufgegeben 😂 reallife kostet einfach zu viel zeit
 
@Easy1991 ach das ist doch garnix, ich habe nen game wo 70 auf 28 fps immer hin und her schwankt. Es gab mal auch dazwischen 38 aus aber andere Zahlen gab es nicht bei der Anzeige. Und das bei 720p mit 2 x msaa. Da werde ich noch was machen müssen weil so geht das ja nicht immer diese zeitlupings bei dem Spiel.
 
fortunes schrieb:
Die Settings lassen den VRAM überlaufen.
Richtig, und seltsamerweise produziert die 1650 dann häufig immer noch spielbare Werte, die 6500/6400 nicht. Zumindest nicht mit PCIe 3.
Du kannst dir halt weiter diese Karten schönreden wie du willst, für Systeme mit PCIe 3 ist Nvidia objektiv die bessere Wahl. Ja, es ist richtig, dass wenn ich die Einstellung auf unter 4GB trimme, die Krüppel-Karten schneller sind, oder ich kann halt ne Nvidia-Karte (oder ältere AMD-Karte) nehmen wo ich mir über sowas keine (großen) Gedanken machen muss.
fortunes schrieb:
dass überall der GLEICHE Fehler gemacht wird/wurde
Verstehe, alle die sowas beruflich machen haben, im Gegensatz zu dir, keine Ahnung. Junge, dass ist kein "Fehler", sondern dass nennt sich Vergleichbarkeit. Warum zur Hölle sollten die Tester die Einstellungen runterfahren? Damit AMD besser dasteht? Tatsache ist nunmal, dass es vergleichbare Karten gibt, die nicht vollkommen zusammenbrechen wenn der VRAM überläuft.
AMD hat die Karte absichtlich verkrüppelt um die Profitmarge zu erhöhen und es ist vollkommen richtig das dass auch in den Tests deutlich gemacht wird.
 
  • Gefällt mir
Reaktionen: Backfisch
@Easy1991 @latiose88 Ich bin kein aktiver CSGO Spieler, von daher kenne ich natürlich nicht eure gewünschten Leistungsziele, aber evtl. könnt ihr aus der FPS Map und den Bildraten der Quadro T600 einigermaßen eine Einschätzung bekommen wie es vermutlich um die 1630 stehen wird.


1080p low, 1080 high noMSAA 4xAF und 1080p high 8xMSAA 16xAF habe ich hier mitgeschnitten.

fortunes schrieb:
Und das ist der springende Punkt. Auch Techspot legt sein 08/15-Test-Schema auf die Karte und zerreißt sie dann.
Deren 0815 Schema liegt mit den Einstellungen ganz wo anders. Und nochmal, außer den zwei bewusst so gewählten Titeln+Einstellungen, sind alle anderen völlig vernünftig und geben genau einen Einblick mit welcher Bildqualität und Leistung der Kunde rechnen kann.
Ich kann nichts dafür wenn hier nur Headlines und Fazits gelesen werden ^^
 
  • Gefällt mir
Reaktionen: Poulton, andi_sco und Vulture
...also wenn ich nicht zum gebi ne rtx3080 geschonken bekommen hätte, dann würd ich immer noch mit meiner 1050ti kalmx datteln, die hatte für meine ansprüche absolut gereicht und war absolut lautlos und sparsam im energieverbrauch....eine passive 1630 wäre echt nice !

lg
 
dutchflyer schrieb:
Ich glaube die Karte würde sich bedeutend mehr verkaufen wenn sie statt 1630 GTX 3030 heißen würde
keine Ahnung ob nicht bereits geschehen...
aber... dahingehend sollte und muss man Nvidia bei ansonsten aller sehr häufig gerechtfertigter Kritik (ausnahmsweise) ausdrücklich loben.

Ja, in der gtx1630 steckt "alte Hardware", aber sie verkneifen es sich sie als RTX zu vermarkten, vor allem aber ist es weiterhin ein 1xxx Modellnummer, so dass auch jegliche falsche Hoffnung auf eine modernere GPU mit Tensor Kernen für Nvidia DLSS dadurch unterbunden wird, was bei einer 2 oder 3 an erster Stelle hätte passieren können.

Würde Nvidia dieser Karte zu dem voraussichtlichem Preis zumindest auch noch einen H.264/265 Hardware Encoder spendieren, dann müsste man diese beinahe "Top GPU der 20er Jahre bis jetzt" nennen.
 
Ich finde NV hätte von Anfang an die Turing Chips konsequent als 2000er Serie bezeichnen sollen. So denkt der Laie das die Chips (Generation) noch älter sind, als die 2000er. Man hätte sie dann natürlich GTX 2050 (anstatt 1660 Ti) oder so nennen sollen, dann wäre auch weiterhin der Unterschied zwischen Non-RT und RT Grafikkarten erhalten geblieben.

Es ist gut das auch das Low-End Segment mal (wieder) ein Update erfährt. (genau wie bei AMD) Aber die Hersteller müssen nochmal wieder lernen das man dafür keine 200€ verlangen kann.
Von der GT1030 ist die GTX 1630 natürlich ein ordentlicher Sprung, aber erstere hat mal nur 50-70€ gekostet am Markt und keine 170-200€.
 
  • Gefällt mir
Reaktionen: andi_sco
die könnten ja auch es anderst machen,in Zukunft die 8 nm von Samsung für die kleinen GPUS amchen und die großen von TSMC in 5nm.So hat man dann genug Kapatiztät und ein Fortschritt ist ebenso gegeben.So würde ich es dann in Zukunft machen bei Nvidia.Damit können sie dann mehr als genug GPUS Herstellen.
Ob sie es so in Zukunft machen werden,mal sehen.Ich habe damit kein Problem und Leistung ist dann ebenso festzustellen.Na hoffen wir mal das sie es so machen werden.Und die kleinen GPUS sind damit dann auch in Zukunft nicht so teuer herzustellen.
 
bitte bei der NV GPU bleiben, für die 6500XT und FPS in games haben wir andere bereiche.

die karte wird ein gutes replacement, wenn bestimmte ansprüche nicht gestellt werden. der preis muss halt entscheiden ob das eine variable option ist oder nicht. grundsötzlich finde ich solche GPUs eine feine sache, addieren einfach so viele displayanschlüsse zum system wenn nötig für wenig geld
 
puri schrieb:
Solange die Einsteiger-GPUs teurer sind als eine komplette APU, macht das keinen Sinn. Wo sind die Urenkel der AMD HD 6450 oder Nvidia 210/710, die es für unter 50€ gab ? Das waren Officekarten. Gerade AMD tut sich einfach im Firmenumfeld schwer, da sie nur in Ausnahmefällen APUs anbieten - da wäre die Kombination mit einer kleinen 50€-Karte schon mal eine Möglichkeit.
Eine APU ist ca. 1/3 so schnell wie eine 6500XT. Die 6500XT ist aus der mobilen Sparte entnommen und wurde "hoch" gezogen. Für AMD deutlich mehr Gewinn. Für das Abkühlen des Marktes von unten kam sie zur rechten zeit und hat voll gewirkt und AMD macht damit sehr gutes Geld.
flappes schrieb:
Wenn der Preis unter 120 Euro liegt und 3 Monitor-Anschlüsse hat, dann wäre es eine top Office-Karte für mehrere Monitore.

Die 6500, selbst wenn der Preis fallen sollte, hat nur 2 Anschlüsse (unnötig von AMD oder den Anbietern kastriert) und ist damit für viele Office-Rechner nicht brauchbar.
Wenn... ja wenn. Aber die Zielgruppe der 6500XT ist eine andere wie der eines alten Chips ala 1630.
naicorion schrieb:
Da hast Du schon recht. Es ist aber schon bemerkenswert, wie positiv das Feedback auf diese Vollusche hier ist. Die 6500xt war im Test und Forum der letzte Schmutz und wurde gebasht ohne Ende, obwohl es eine relativ sparsame Karte mit (im Marktvergleich) ordentlicher Spieleistung war, dazu verfügbar zum UVP, fast direkt vom Anfang.

Dieser alte Schnarcher, den es für weniger Geld schon bei NV selber besser gab (1650 und auch 1660 gingen vor zwei Jahren schon für weniger Geld als die hier kolportierten 200 über die virtuelle Theke) soll nun also eine gute Karte sein, mit der man - analog 1050ti - alles spielen kann, wenn man ein bisschen die Regler bedient. Aha.

Aber mit der 6500xt mit besserem (nicht komplettem) Featureset, die es dann auch schon ein halbes Jahr gibt und die mehr Power hat, geht das alles nicht? Verstehe ich nicht...
Richtig, wenn wir uns den Strang mit der 6500XT hier anschauen und auch den CB Test so sehen wir wie vor einigen Wochen das Gebrüll laut war, die übertriebenen und auch falschen Schlüsse und Behauptungen nur so ins Forum schossen und wie der Preis angezählt wurde. Jetzt kommt Nvidia mit einer 1630 um die Ecke, die schon fast eine halbe 1650 nur sein wird und hier wird Milde gezeigt, ja geradezu nach Einsatzmöglichkeiten gefahndet. Aber der Preis... der angesetzte UVP Preis nahezu mit keiner Silbe erwähnt. .Der liegt auf 6500XT Level!

Kannst hier echt nur den Kopf schütteln.
 
  • Gefällt mir
Reaktionen: Mick32, Knergy, andi_sco und eine weitere Person
latiose88 schrieb:
in Zukunft die 8 nm von Samsung für die kleinen GPUS amchen und die großen von TSMC in 5nm
Als Test sind kleine Chips perfekt für den neuen Fertigungsprozess. Das haben die beiden Hersteller ja immer wieder gemacht.
Vielleicht fallen dann auch mal wieder die Preise im Einstiegssegment.
Ergänzung ()

Sam Miles schrieb:
der angesetzte UVP Preis nahezu mit keiner Silbe erwähnt. .Der liegt auf 6500XT Level!
👍
 
Zuletzt bearbeitet:
Fresh-D schrieb:
Von der GT1030 ist die GTX 1630 natürlich ein ordentlicher Sprung, aber erstere hat mal nur 50-70€ gekostet am Markt und keine 170-200€.

Vielleicht sollte man auch ehrlich sein, und erwähnen das die 1030 GT eben zwischen 65 und 80 € schwankte. Ebensowenig wie der neue Marktpreis der 1630 GTX bekannt ist, weil sie eben noch nicht erhätlich ist.
 
T.Pursch schrieb:
Hätte nie gedacht, dass meine gerade ersetzte 1650 "passiv" sooo lange <aktuell> ist ;-)

Kann ich ja jetzt für einen MONDpreis verticken :-)
280 Euro. Lief keine 15 Minuten…
 
Das wird keine "Neue 1050 ti". Das zeigt nicht nur der Name oder die für 2022 absolut unzeitgemäße Speicherbestückung. Sondern auch, dass Nvidia damit einen Gegenspieler zur RX 6500 XT (womöglich eher sogar zur RX 6400) sucht.

Ich will die GTX 1050 ti jetzt nicht besser darstellen, als sie ist, denn fünf Jahre zuvor bekam man zu ihrem Release-Preis (150 Euro) noch mehr "bang for the buck", etwa eine Radeon 6870, die alles in hohen Details darstellen konnte. Aber die 1050 ti hatte zu Release:

  • Eine auch für alle damaligen AAA Games in Full-HD und mindestens mittleren Details ausreichende Menger Speicher, sprich, 4 GB schon vor über einem halben Jahrzehnt
  • Alle Features ihrer damaligen (Pascal-)Reihe
  • volle Spieletauglichkeit generell
  • und das bei einer TDP von weit unter 100 W

Entsprechend auch das Fazit von Computerbase:

Die GeForce GTX 1050 Ti überzeugt zum Preis von rund 150 Euro damit auf ganzer Linie. Performance, 4.096 MB Speicher, Energieeffizienz, das komplette Feature-Set der Pascal-Architektur – alles passt.
Ich warte schon seit ewig auf einen aktuellen Nachfolger, weil ich die 1050 ti noch immer benutze, selbst aktuell in Elden Ring. Aber schon die RTX 3050 ist das alles eher nicht. Sieht man sich an, dass selbst auch die in Sachen Features ziemlich abgespeckte RX 6500 XT noch eine TDP über 100W hat (und aktuellen Mainstreamkarten wie der RX 6600 um bis zu ~100% in Sachen Performance hinterherhinkt, mit PCIe 3.0 sogar noch mehr), ist das einfach nur ernüchternd.

Hatte davor über viele Jahre mit ähnlichen Karten gespielt, hin und wieder auch AAA. Und deshalb vor ein paar Jahren ein defektes 450-Watt-Netzteil sogar gegen ein kleineres 400W ausgetauscht (das beQuiet-System Power 9 400W), weil ich das 450er nie annähernd ausgereizt hatte. Für mich war diese ENtwicklung nicht absehbar, eigentlich wurden die Karten immer effizienter -- und auch der Bereich unter 100W TDP nicht nur mit absoluten Einstiegskarten bedient, die vor ein paar Jahren noch für 60-80 Euro verkauft worden wären. Ausgehend von den letzten Meldungen (steigender Verbrauch across the board bei der nächsten Gernation beider Hersteller) nehme ich an, dass sowohl AMD als auch Nvidia auch bei der Folgegeneration nichts wirklich 100% Passendes anbieten werden.

Es kann bei mir also fast nur eine RTX 3050 oder doch RX 6600 werden, je nach Lastspitzen. Mit beiden wäre ich aber wegen der deutlich höheren TDP und des realen Verbrauchs nicht wirklich richtig glücklich. Vielleicht besetzen irgendwann IGPs diese auszufüllende Lücke, bei denen es ja doch noch weiterhin einiges an Fortschritt gibt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: oem111 und Frooooonk
...übrigens hab ich vor ca. 4 oder 5 jahren 180,-€ für eine kalmx 1050ti von palit bezahlt, ich fand den preis damals auch für i.o. ...passiv und 75w tdp...einfach unschlagbar für den preis...

lg
 
  • Gefällt mir
Reaktionen: Svennc
Zurück
Oben