News GPU-Gerüchte: Die Nvidia GeForce GTX 1650 folgt der 1660 Ti im Frühjahr

Sennox schrieb:
Bei der Fury wurde eigentlich sehr viel über die nur 4 GB HBM gemeckert!
Ein paar meinten es würde wegen der Geschwindigkeit weniger ein Problem darstellen bzw. man wollte erst mal abwarten wie sich HBM macht (war zu der Zeit ja noch brandneu).

Klar wurde gemeckert. Aber von wem? Jedenfalls weniger von AMD Fans. Die meinten in der Tat das die Geschwindigkeit alles rausreißen würde. Manche fantasierten sogar dass 4GB HBM so gut wie 8GB GDDR wären.

Schon damals wurden entgegen jeder Vernunft hahnebüchene Annahmen getätigt die die 4GB rechtfertigen sollten. Genauso wie jetzt wo 8GB angeblich unterstes Minimum für eine Karte dieser Klasse sind.

Aber mir ist auch noch etwas anderes aufgefallen: Sehr viele Leute die sich über die 6GB beschweren tun dies nicht weil das ein technisches Limit wäre das man in der Kartenklasse nicht aktzeptieren kann, sondern schlicht weil der Preis zu hoch ist. Man liest sehr oft, dass es "für 250 Euro ne gute Karte" wäre. Ist immerhin ein Anfang.
Zumal es schon viele Karten für 279 gibt lt. Geizhals. Fehlt ja nicht mehr viel bis die 6GB akzeptabel sind, wenn auch nicht aus technischen Gründen.
 
  • Gefällt mir
Reaktionen: onkel-foehn und kisser
Meine Wahrnehmung war da anders, der Ton gegenüber den 4 GB HBM war, auch von AMD Fans, in den meisten Fällen kritisch/bedenklich. Ein paar Spinner die eine Marke hypen (egal ob Rot, Grün, Blau oder Geld) hast du immer.
Viele kritisieren im Fall der 1660ti aber auch, dass sie Leitung einer 1070 bietet mit weniger VRAM.
Es ist also eigentlich ein Downgrade, außer für die Fans von maximaler Effizienz.
 
  • Gefällt mir
Reaktionen: onkel-foehn
@Sennox Dann waren das damals aber ein paar sehr viele Spinner. Man konnte kaum vernünftig dagegen argumentieren und ich habs echt versucht.

Und diejenigen die die 1660Ti gegenüber der 1070 im Nachteil sehen leider nur dass eine Zahl kleiner ist als die andere. Und auch hier hab ich versucht darzulegen was hier 6GB gegen 8GB bedeuten. Auch in dem anderen Thread wie du weißt. Ich weiß nicht welche oder wie viele Argumente man noch bringen muss bis sich einige der Thematik wenigstens öffnen und nicht auf Prinzipien rumreiten. Vielleicht sollte ich mir einfach die Mühe sparen.

Wer meint unbedingt 2GB mehr VRAM zu brauchen um Texturqualität zu haben die er nur gefühlt sieht, soll es in Gottes Namen glauben. Glaube kann bekanntlich Berge versetzen.
 
Zuletzt bearbeitet:
Die Frage die nach wie vor im Raum steht:
Warum sollte ich bei zwei/drei vergleichbaren Karten zu der mit weniger VRAM greifen?
Bzgl. der Effizienz haben wir uns hier, glaube ich, zu Genüge ausgelassen.
Für viele ist der Sprung nicht nennenswert bzw. die Differenz ohnehin vernachlässigbar.
Was also bleibt für die 1660ti gegenüber der 1070 und V56 so lange es diese noch zu den aktuellen Preisen gibt?

Das hat nichts mit glauben zu tun, die 1660ti, V56 und 1070 sind alle auf einem Niveau.
Mal ist die eine im guten Fall 10% schneller mal die andere 12%, alles im Rahmen einer Klasse.
Warum also das selbe Geld für die gleiche Leistung aber weniger VRAM ausgeben?
 
  • Gefällt mir
Reaktionen: onkel-foehn und Neronomicon
Sennox schrieb:
Meine Wahrnehmung war da anders, der Ton gegenüber den 4 GB HBM war, auch von AMD Fans, in den meisten Fällen kritisch/bedenklich.

Nix für ungut, aber dann könntest du mal an deiner Wahrnehmung oder deinem Gedächtnis arbeiten. ;)
Zum Glück vergisst das Internet nichts.

https://www.computerbase.de/forum/t...e-alternative-zu-nvidias-topmodellen.1488005/

Wo steht den das in naher Zukunft 4GB HBM Speicher limitieren? Bei normalen Speicher stimme ich zu, da sollten es 8GB schon sein.

Und warum sollten die 4GB HBM limitieren? Oo Da wo andere Karten fast 8GB GDDR5 brauchen, braucht die Karte weniger, also ich sehe da kein Problem.

Es hat sich also gezeigt, das HBM auch aus Performance-Sicht wesentlich besser ist als GDDR5. Daher denke ich, dass die 4 gb HBM in Zukunft eher noch weniger Nachteile bieten werden als veralteter 6 gb GDDR5 speicher. Ich denke, da sich HBM aufgrund der vielen Vorteile durchsetzen wird, ist es dumm, zu einer GTX 980ti zu greifen, weil man denkt, 6 gb GDDR5 wären besser für die Zukunft.

Natürlich gab es auch reichlich kritische Stimmen, und manche regten schon damals (Juni ´15) zum Schmunzeln an :D

Die Schlussfrage ob die 4 GB HBM auch für die Zukunft reichen ist für mich sehr wichtig, weil geplant für ~5 Jahre.
 
Könnte bitte jemand die 4GB Befürworter damals gegen die 6GB Befürworter heute abwägen und dabei die User, die in beiden Fällen zu weniger Speicher raten, rausrechnen?
Dann würde es spannend werden :D
Ich habe mich dabei allerdings nicht nur auf's CB Forum beschränken wollen, das kam möglicherweise falsch rüber
 
Sennox schrieb:
Warum also das selbe Geld für die gleiche Leistung aber weniger VRAM ausgeben?

Weil sich in der Welt der Grafikkarten und Spiele nicht alles um diesen einen Faktor VRAM dreht.
Es gibt keinen vernünftigen Grund sich nur auf dieses eine Kriterium zu versteifen.
Turing ist neu, das Potenzial ist durch neue Funktionen und Architekturverbesserungen höher als beim auserzählten Pascal-Chip.

Kauf was ihr wollte, Leute. Sollten aber demnächst Spielepatches oder Treiberupdates erscheinen die die 1660Ti vor die 1070 setzen, dann möge sich bitte niemand beschweren dass "nVidia absichtlich Pascal schlechter macht" oder man "betrogen" wurde. Das hätte man erahnen können.
 
Diese Argumentation mit "wird besser" und "bringt Features die in Zukunft was reißen werden" ist vermutlich fast so alt wie dedizierte Grafikkartenslots selbst!
Da wird dann von der Gegenseite immer behauptet "ich will aber JETZT diese Leistung".
Bei Vega wurde auch einiges versprochen wovon nicht alles gehalten wurde ^^ aber da nehmen sich beide wenig (AsyncCompute auf Maxwell HUST).

In beiden Fällen ist es Spekulation denn das mehr an VRAM kann in einem Jahr ebenso nützlich sein wie die Turingfeatures der 1660ti.
Wobei es beim VRAM nur um die Größe des Impacts geht und nicht um das "ob überhaupt", bei den versprochenen Features von der 1660ti steht es nun wirklich noch komplett in den Sternen.

Bottomline:
Du hat keine stichhaltige Antwort auf meine Frage außer "könnte vielleicht irgendwann zwischen 2-200 Monaten möglicherweise besser sein".
:D

P.S.
Und hör' bitte auf mich immer so darzustellen als würde ich nur auf VRAM achten!
Ich habe extra fett hervorgehoben, dass die Leistung in meinem Beispiel nahezu gleich ist.
VRAM ist nicht alles aber er ist auch nicht zu vernachlässigen.
 
Sennox schrieb:
VRAM ist nicht alles aber er ist auch nicht zu vernachlässigen.

Das ist volkommen richtig! Es kommt auch auf die Treiber, die unterstützten Videocodecs oder den Strombedarf an. Was nützt mir eine Karte die in der Anschaffung preisgleich sein mag, aber in 2-3 Jahren locker durch den Strombedarf in eine höhere Preisklasse rutscht?
1551361020423.png


Die RTX2060 ist definitiv kein "Effizienzwunder", bei der GTX1660Ti würde ich aber die 100W Unterschied zu einer Vega 56 nicht einfach so unter den Tisch kehren.
 
Zuletzt bearbeitet:
Der Graph hinkt, CB testet leider (besonders die AMDs) recht realitätsfremd.
@Smartcom5 hatte das neulich recht gut zusammengefasst (finde ich).
Man müsste übrigens jeden Tag für ca. 4 Stunden zocken (unter Volllast) damit man auf ca. 30€ Mehrkosten pro Jahr kommt :D

Darüber hinaus läuft eine Grafikkarte beim normalen Gamer ja nicht die ganze Zeit auf Anschlag.
Wie ich aber bereits gesagt habe: Für wen die Effizienz ein so wichtiges Kriterium ist, der ist mit der 1660ti nicht schlecht beraten. Für alle anderen sind die 2GB mehr die bessere Wahl.
 
  • Gefällt mir
Reaktionen: Smartcom5
Sennox schrieb:
Man müsste übrigens jeden Tag für ca. 4 Stunden zocken (unter Volllast) damit man auf ca. 30€ Mehrkosten pro Jahr kommt

Und wo ist das bei einer Gamingkarte ein Problem?

Sennox schrieb:
Darüber hinaus läuft eine Grafikkarte beim normalen Gamer ja nicht die ganze Zeit auf Anschlag.

Ich würde mich mal aus dem Fenster lehnen und das Gegenteil behaupten. Ziemlich viele spielen heutzutage mit VSYNC OFF und somit läuft eine Grafikkarte immer am Anschlag.

EDIT: Hier gibt es übrigens eine schöne Tabelle.
1551362028919.png

https://www.stromverbrauchinfo.de/stromkosten-im-alltag.php
 
Zuletzt bearbeitet:
@xexex
Eigentlich erlebe ich das seit Jahren genau andersrum :confused_alt:
Gerade durch die neuen Sync Technologien, Syncen immer mehr in meinem Umfeld ihre FPS an ihr Anzeigegerät.
Ich habe auch früher Vsync off geforced für competetive shooter aber mit einem 144hz FreeSync Display braucht man das eigentlich nimmer.
Zumal das eh meistens ausschließlich bei competetive Games gemacht wird/wurde, zumindest war das in meinem Umfeld immer so.

Von was für einem Problem sprichst du?
Meinst du ernsthaft ein Großteil würde jeden Tag um die 4 Stunden spielen?
Ich meine wirklich jeden Tag im Jahr, sieben Tage die Woche, jede Woche!
Vielleicht verstehe ich aber auch nur grad nicht worauf du hinaus wolltest ^^

Man kann die V56 übrigens z.B. recht gut auf 165W einbremsen (Standard bei den meisten Customs)
https://www.techpowerup.com/forums/threads/rx-vega-56-tuning-for-efficiency.249886/
Dann dürfte sie ca. auf 1660ti Niveau sein bei max. ~35W Mehrverbrauch, wow :rolleyes:

Edit:
Die 1660ti ist einfach kein Effizienzwunder! Ja sie verbraucht etwas weniger als eine 1070 bei ähnlicher Leistung aber von was reden wir hier im Schnitt? Was war das noch gleich, ca. 30Watt?
Einige Watt werden durch das kleine Speicherinterface und weniger RAM eingespart und der Rest ist Optimierung an Chip und/oder Herstellungsprozess.
Weniger Verbrauch ist immer gut aber das was hier abgeliefert wurde ist wirklich kein Durchbruch für die seit der 1070 vergangene Zeit.

Edit2:
Bei deinem Link steht leider nicht dabei auf wie viel Tage in der Woche das im Schnitt gerechnet wird.
Noch mal: Der Anteil an Gamern die wirklich JEDEN TAG 4+ Std. spielen dürfte gering sein.
Und dann verringert sich der Mehrpreis ganz signifikant.
 
Zuletzt bearbeitet:
Sennox schrieb:
Ich meine wirklich jeden Tag im Jahr, sieben Tage die Woche, jede Woche!

Schon was vom Durschschnit gehört? Vier Stunden am Tag machen 28h in der Woche, aber selbst wenn du von der Hälfte ausgehst und mit 14h die Woche auskommst, bezahlst du am Ende knapp 20€ im Jahr mehr. Natürlich ist es eigentlich ein "Kleckerbetrag", nur unter den Tisch kehren würde ich ihn nicht.

Sennox schrieb:
Gerade durch die neuen Sync Technologien, Syncen immer mehr in meinem Umfeld ihre FPS an ihr Anzeigegerät.

Wer sich Gaminghardware zulegt, kauft sich meist kein 60Hz Gerät und in den meisten Spielen wird eine Karte der Leistungsklasse einer 1660Ti selbst bei 60FPS am Anschlag laufen.
1551363069861.png


Sennox schrieb:
Die 1660ti ist einfach kein Effizienzwunder! Ja sie verbraucht etwas weniger als eine 1070 bei ähnlicher Leistung aber von was reden wir hier im Schnitt? Was war das noch gleich, ca. 30Watt?

Dann solltest du AMD einfach mal vorschlagen in der Zukunft statt immer mehr, einfach mal etwas weniger Strom zu verbrauchen, wie es die Konkurenz trotz fast gleicher Fertigungstechnik anscheinend schafft. Einen Kühlschrank oder eine Waschmaschine mit der "Effizenz" der aktuellen AMD Karten, würde zumindest in Deutschland vermutlich niemand kaufen und da reden wir teils von wesentlich geringeren Unterschieden.
 
Zuletzt bearbeitet:
Du willst mir also ernsthaft darlegen, dass die ganzen Leute auf einen Gamingschnitt von 14Std. die Woche über das ganze Jahr kommen?
Halte ich für unrealistisch aber das wird sich wohl kaum belegen lassen und das gilt für unser beider Behauptungen :D

Edit: Und auch hier wieder: Diese Werte gelten nur für Extremfälle. Dass Grakas die ganze Zeit im absoluten Limit an der Kotzgrenze des Verbrauchs laufen ist einfach nicht die Regel.

xexex schrieb:
Wer sich Gaminghardware zulegt, kauft sich meist kein 60Hz Gerät. In den meisten Spielen wird eine Karte der Leistungsklasse einer 166Ti dort am Anschlag laufen und trotzdem selten die 100Fps Marke knacken. Wieso sollte ich mir eine Karte kaufen und diese dann einbremsen?
Wieso 60Hz?
Freesync geht hoch bis 144Hz, ich persönlich spiele auf 75 Hz (noch).
Darum erwähnte ich doch extra Free- und G-Sync, dank diesen ist man eben nicht mehr an 60 Hz/FPS gebunden.

@xexex
Wenn du an einer ernsthaften Diskussion interessiert sein solltest, wäre es förderlich wenn du deinen einen Beitrag nicht ständig änderst/erweiterst....
1-2 Mal ist ja okay aber so langsam...:freak:
 
Zuletzt bearbeitet:
Sennox schrieb:
Du willst mir also ernsthaft darlegen, dass die ganzen Leute auf einen Gamingschnitt von 14Std. die Woche über das ganze Jahr kommen?

Wozu baue ich mir denn eine Gamingkarte in den Rechner, damit ich sie 1-2 Stunden pro Woche nutze? Da kann ich mir auch gleich eine Konsole zulegen.

Natürlich wird es auch Käufer geben die eine solche Karte weniger nutzen. Sie sollten sich eben nur bewusst sein, dass für Vielspieler eine AMD Karte ungeeignet ist.

Sennox schrieb:
Darum erwähnte ich doch extra Free- und G-Sync, dank diesen ist man eben nicht mehr an 60 Hz/FPS gebunden.

Womit eine Grafikkarte dieser Leistungsklasse eben immer am Anschlag läuft.
 
Tut sie nicht.
100% Auslastung sind in Zeiten von den variablen Boosttechniken nicht mehr mit maximaler Auslastung gleichzusetzen. (Edit: Ich weiß, der Satz liest sich seltsam, einfach den Rest des Absatzes lesen dann wird es klar ^^)
Wenn ich z.B. MHW spiele oder Furmark anschmeise habe ich zwar in beiden fällen ~100% Auslastung aber definitiv versch. Taktraten und Verbrauchswerte (zumindest laut GPU-Z).
Zusätzlich siehe Beispiel mich selbst: Ich spiele auf 75 Hz weil ich es gut finde!
Ich könnte (manche Games) mit wesentlich mehr spielen, tue es aber nicht.
Ergo: Renne ich selten in's Verbrauchsmaximum.

Wenn man all das zusammenfasst, inkl. wirklicher Spielzeit und wie viel max. Auslastung (in Bezug auf Verbrauch) wirklich anliegt, dann werden diese Mehrkosten an Strom am Ende gar nicht so hoch ausfallen.
Ich sage nicht, dass es egal ist, ich sage: Der Unterschied ist gering und wird vermutlich den meisten egal sein wenn sie rational an das Thema rangehen.

Sonst hätte ich mir nie die V56 geholt ^^


xexex schrieb:
Wozu baue ich mir denn eine Gamingkarte in den Rechner, damit ich sie 1-2 Stunden pro Woche nutze? Da kann ich mir auch gleich eine Konsole zulegen.

Natürlich wird es auch Käufer geben die eine solche Karte weniger nutzen. Sie sollten sich eben nur bewusst sein, dass für Vielspieler eine AMD Karte ungeeignet ist.
Was soll der Vergleich zur Konsole? Wer die entsprechenden FPS oder Grafikpracht möchte kommt um einen PC nicht rum, egal wie viel er zockt:rolleyes:
Und du ignorierst gekonnt worauf ich hinaus will, oder verstehst es nur nicht.
Man zockt doch nicht jede Woche 14 Std.?
Leute sind mal Urlaub, machen was anderes, haben mal keine Lust, spielen mal etwas das wenig/kaum Leistung benötigt.
Bei dieser Milchmädchenrechnung wird davon ausgegangen, dass man 365 Tage im Jahr auf maximaler Verbrauchsauslastung zockt und DAS ist nun wirklich eine ganz GANZ verschwindend geringe Gruppe!
 
  • Gefällt mir
Reaktionen: Smartcom5
Sennox schrieb:
Man zockt doch nicht jede Woche 14 Std.?
Leute sind mal Urlaub, machen was anderes, haben mal keine Lust, spielen mal etwas das wenig/kaum Leistung benötigt.

Dann ist mal Winter und es regnet draussen und man verbringt das halbe Wochenende vor dem Rechner.... Was willst du mir damit sagen?

Ich verbringe locker mehr als 30h die Woche vor dem Rechner, im Schnitt verbringen Leute je nach Statistik zwischen 2-3h am Tag mit dem Spielen. Verlässliche "Statistik" muss am Ende jeder selbst für sich ermiteln, mit dem Hintergrund ab 2h am Tag wird eine AMD Karte schnell auf längere Sicht gesehen teuer.
Berlin, 12. Mai 2017 - Kinder und Jugendliche in Deutschland verbringen täglich fast zwei Stunden mit Computer- und Videospielen. 117 Minuten zocken die 10- bis 18-Jährigen im Schnitt am Computer, an der Spielekonsole, am Smartphone oder Tablet. 10- bis 11-Jährige spielen täglich rund 76 Minuten, 12- bis 13-Jährige 126 Minuten. Die 14- bis 15-Jährigen zocken im Schnitt 132 Minuten pro Tag, die 16- bis 18-Jährigen verbringen 128 Minuten mit Videospielen.
https://www.bitkom.org/Presse/Press...dliche-zocken-taeglich-rund-zwei-Stunden.html

Diese Statistik zeigt die durchschnittliche tägliche Nutzungsdauer von Computer-, Konsolen-, Tablet- und Smartphonespielen durch Jugendliche in Deutschland. Von Montag bis Freitag lag die Nutzungszeit der digitalen Spiele bei Jungen bei durchschnittlich 146 Minuten.
https://de.statista.com/statistik/d...r-von-games-pc-und-konsole-durch-jugendliche/
 
Ich will damit sagen, dass es nur ein geringer Anteil ist der diesen Schnitt von 14 Std. die Woche das ganze Jahr erreicht und dieses Argument bzgl. Effizienz nicht so groß ist wie es manch einer hier gerne hätte.
Natürlich ist das immer von persönlichen Präferenzen abhängig (wie ich schon oft erwähnt habe).

Grundlegend aber immer von den Vegas abzuraten weil "die brauchen so viel mehr Strom1!1!einself" sehe ich aus rationaler Sicht einfach als fehl am Platz.
Es gibt Fälle wo das Sinn ergibt, natürlich.
Es wird aber so argumentiert als wäre es immer der Fall, höchst dramatisch und die Vegas grundlegend deswegen nicht zu empfehlen.
einem normalen Durchschnittsgamer würde ich nie von den Vegas wegen des Verbrauchs abraten.


Edit:
Es wird auch, im Moment, gerne unterschlagen dass man bei den Vegas gerade 3 aktuelle AAA Games dazu bekommt (zwar nicht bei allen Händlern aber da MF meist im Preis der Spitzenreiter ist, ist das auch kein Hexenwerk da dran zu kommen).
Natürlich treffen die nicht jedermanns Geschmack aber das ist genau so vom Einzelfall abhängig wie die Effizienz.
Auf einmal spart man also bei einer Vega noch mal ca. ~80€ (keine Lust wieder die Preise zu checken ^^).
 
Sennox schrieb:
Ich will damit sagen, dass es nur ein geringer Anteil ist der diesen Schnitt von 14 Std. die Woche das ganze Jahr erreicht und dieses Argument bzgl. Effizienz nicht so groß ist wie es manch einer hier gerne hätte.

Was genauso eben für den VRAM gilt. Wieviele Spiele gibt es die überhaupt 8GB für die höchsten Grafiksettings benötigen? Wieviele Spiele davon bieten überhaupt dadurch einen sichtbaren Mehrwert?

Wie du selbst erst kürzlich gesagt hast.....
Sennox schrieb:
VRAM ist nicht alles aber er ist auch nicht zu vernachlässigen.
... gilt das eben auch für den Strombedarf.
 
Zurück
Oben