Notiz GPU-Gerüchte: Über GTX 1650 Ti und GTX 1660 Super wird gemunkelt

Herstellung immer teurer?! Ich weiß nicht. Im Normalfall werden die Produktionskosten von Jahr zu Jahr immer effizienter.
Vielleicht haben die Hersteller die nächsten Jahre "einbezogen" in den Kaufpreis. 250€ Karte + 20€ pro Jahr Benutzung (Service für Patches usw) * 5Jahre = 350€ Kaufpreis. Für die 1650Ti kann man ganz sicher nicht von 5 Jahren ausgehen und die Produktionskosten ist ganz sicher niedriger als bei der 2070. 1650Ti= 100€ + 20€*3Jahre= 160€.
 
Nero2019 schrieb:
Herstellung immer teurer?! Ich weiß nicht. Im Normalfall werden die Produktionskosten von Jahr zu Jahr immer effizienter.
Vielleicht haben die Hersteller die nächsten Jahre "einbezogen" in den Kaufpreis. 250€ Karte + 20€ pro Jahr Benutzung (Service für Patches usw) * 5Jahre = 350€ Kaufpreis. Für die 1650Ti kann man ganz sicher nicht von 5 Jahren ausgehen und die Produktionskosten ist ganz sicher niedriger als bei der 2070. 1650Ti= 100€ + 20€*3Jahre= 160€.
Bezog sich nicht auf das ganze. Nur auf die Herstellung im x nm Prozess selbst. Dort steigen die Kosten exponentiell. Da man aber auch mehr Chips auf einen Wafer bekommt gleicht sich das in der Regel aus. Dies passiert aber nicht wenn die Chips trotz shrink größer werden. Und das ist langsam aber sicher immer öfter der Fall besonders bei vollausbauten und high end Chips.
 
Wer soll da eigentlich noch durchblicken bei dem Modellchaos das nVidia da aufstellt!? :stacheln:
 
  • Gefällt mir
Reaktionen: Three of Nine
PS828 schrieb:
Dies passiert aber nicht wenn die Chips trotz shrink größer werden.

der TU116 hat 6.6 milliarden transen. das ist nicht wenig, aber auch nicht wirklich viel. wir reden gerade mal über ein drittel, des TU102 aka rtx2080ti.

in 7nm wäre der chip winzig und auf dem wafer würden wirklich viele davon passen.

warum wird der nicht gebaut? weil der aktuelle 12nm prozess wirklich gut ist und man keine not hat. :evillol:

die jungs bei nvidia sind doch keine eier maler....ein rennpferd läuft nur so schnell, wie es muss.

wenn der neue navi14 (oder wie auch immer) kommt und schnell ist, baut man halt noch eine 1660 super mit den shadern der 1660ti und billigem ram (oder schneller ram und gleiche shader).....ist doch nicht so schwer :heilig:

mfg
 
@[wege]mini das stimmt :D wäre die Konkurrenz hier ein wenig härter würde es sicherlich so manches Angebot geben was man vorher nicht für möglich hielt.
 
1650Ti ohne Stromversorgung kann durchaus kommen, macht halt nur wenig Sinn, wenn dadurch auf viel Leistung verzichtet wird. Die 1650 kommen ja schon oft mit Stromversorgung, wenn eine Ti mehr leisten soll, wird sie das ebenso benötigen. Wieso kauft man sich einen Chip, der durchaus flott sein kann, und limitiert ihn dann künstlich um Strom/einen Stecker zu sparen, da kann man doch gleich einen schwächeren Chip kaufen für weniger Geld?
Preis/Leistung wird jedenfalls sicher furchtbar, sind die 1650 ja schon und die 1050 davor. Einzig die 1050Ti konnte in Zeiten des Miningrausches eine gewisse Zeit eine anständige P/L halten.

1660 Super? Als ob es nicht schon eine 1660Ti gäbe. Wenn dann nicht mal der Schritt zu 8GB kommt, wäre es doppelt überflüssig. Interessant wäre hingegen sowas wie eine 1660 Ti Super mit 8GB GDDR6 und Leistung so im Bereich Vega 56 und 1070Ti. Das um die 300€, und es gäbe wieder einen echten Mittelklasse-Hit. Nvidia hat ja mit Turing wirklich eine tolle Architektur, aber die Produkt- und Preispolitik ruiniert es für mich.
 
PS828 schrieb:
@Nero2019 das vergessen heute viele. Ja, früher waren die Karten billiger. Aber heute kann man sie viel länger benutzen und die hersteller wissen das. Warum also die preise unten halten wenn man nur noch alle 5 Jahre kauft und die Herstellung immer teurer wird.

Wieso sollte man die Karten jetzt viel länger benutzen können als früher? Früher als 1024x768 noch Stand der Dinge war konnte man sich auch einige Jahre rüber wursteln wenn man nicht die Auflösung erhöhte durch Monitor neukauf.
 
  • Gefällt mir
Reaktionen: Three of Nine
dgneo schrieb:
Wieso sollte man die Karten jetzt viel länger benutzen können als früher? Früher als 1024x768 noch Stand der Dinge war konnte man sich auch einige Jahre rüber wursteln wenn man nicht die Auflösung erhöhte durch Monitor neukauf.
Das bestreite ich nicht. Dennoch ist in dem Fall die Auflösungsstabilität bei weitem nicht so hoch wie jetzt bei full HD. Wer heute eine high end graka für Full HD kauft ist viel länger als nur ein paar Jahre fein raus was Upgrades angeht. Dass dies nicht der Anspruch ist sollte klar sein. Aber es ist möglich.

Klar bau ich lieber mal um und rüste auf. Ich bin aber auch schon bei 4k angekommen was eher dem oberen Spektrum entspricht, aber sowas muss einem das dann auch wert sein. Denn egal ob man sich drüber aufregt oder nicht, es ändert nichts daran dass die hersteller ihre Preise so wählen. Erst wenn es wieder richtigen Wettbewerb gibt wird sich das ändern. Das passiert hoffentlich bald und solange muss man eben, wenn ein Kauf ansteht, nach Schnäppchen schauen und die gibt es ja. P/L Kracher gibt's immer wieder wie die Vega 56 aktuell.
 
dgneo schrieb:
@PS828 ich verstehe was du Meinst. Ägern tut es mich trotzdem :(
Keine Angst, mich ärgert es auch :D aber naja was soll man anderes machen als optimistisch bleiben. Meine R9 390X braucht auch dringend ein Upgrade und ich fürchte es wird mehr als einen tausender kosten. Aber die R9 390X wandert dann in den PC vom Kumpel der nur Full HD zockt und dafür ist das Ding ein beast.
 
Eine Low-Profile-Version der 1650 Ti mit 75 Watt wäre für mich eine möglicherweise interessante Alternative für mein Thinkcentre M92p, das derzeit mit einer 1030 ausgestattet ist. Mal sehen, ob Mehrleistung und Preis überzeugen.
 
@Denniss
Ich habe dir schon gezeigt dass ohne Stromstecker möglich ist.
https://www.computerbase.de/forum/t...r-wird-gemunkelt.1892338/page-2#post-23095941
TI frisst genau viel Strom wie die nonTI (1 Watt Unterschied, siehe 1660 und 1050) und ich gehe davon aus das diesmal auch so sein wird ("Das maximale herausholen aus einer 75Watt GPU").
Wir alle wissen es nicht, wie die TI Version aussehen wird, aber hier 50x erwähnen, dass es schwierig wird, macht wenig Sinn.
 
Ich glaube schon, dass eine 1650 Ti ohne Übertaktung bei 75 Watt möglich ist, aber es wird sicherlich knapp. Hauptsächlich dürfte das von der eingesetzten GPU abhängen. Ansonsten muss man bei einer Beschränkung von 75 Watt eben nach wie vor zur 1650 greifen. Gegenüber einer 1030 liefert diese schon einen ordentlichen Leistungsschub, für den man aber auch ganz schön tief in die Tasche greifen müsste.
 
Kein seriöser Hersteller kann ein Karte bauen die genau 75W trifft denn diese 75W sind der absolute Maximalwert mit den erlaubten Toleranzen der PCIe-Spannungsversorgung. Die 1650 ist schon Spitz auf Knopf gebaut, mehr geht nicht.
 
Man wird sehen. Könntest Du deine Skepsis vielleicht mit einem Link untermauern? Laut Golem-Test (https://www.golem.de/news/geforce-gtx-1650-im-test-sparsam-schlank-speicherarm-1904-140759-3.html) beträgt die Leistungsaufnahme einer nicht übertakteten 1650 bei Last 67 Watt, die einer 1050 Ti 58 Watt. Wäre da nicht doch noch ein bisschen Spielraum nach oben für die 1650 Ti? Möglicherweise müsste man mit einem im Vergleich zur 1550 und 1550 Ti etwas geringer ausfallenden Leistungssprung seitens der 1650 Ti gegenüber der 1650 rechnen. Vielleicht wird auch eine neue, durchs Binning gewonnene GPU verwendet, die zwischen TU117-300-A1 und TU116-300-A1 liegt.
 
Zuletzt bearbeitet:
Artikel-Update: Wie die Website IT Home aus eigenen Quellen bestätigt haben will, soll die GeForce GTX 1650 Ti erst Ende Oktober, um den 22. Oktober herum, veröffentlicht werden.
 
Zurück
Oben