Test GeForce GTX 1650 im Test: TU117 punktet mit Effizienz statt Leistung

eXe777 schrieb:
einfach mal objektiv zu bleiben und Produkte ganz nüchtern zu betrachten.


die gtx1650 ist in fp16 fast 20% schneller als eine rx570.

hier wird die musik in der zukunft gespielt :heilig:

leider halten sich alle bedeckt, wie sie die 4k 60fps stemmen wollen.

ohne "schummeln" geht das aber nicht so leicht in den nächsten 2 jahren. trotzdem sind sich alle sicher, dass sie es können.

mal abwarten, wie die nächsten softwaretitel damit umgehen.

persönlich habe ich aber z.b. jahrelang die 32bit grafik nicht benutzt, da ich keinen mehrwert hatte.

mfg
 
Ja NV ist der neue Intel nur wenn Intel wirklich kommt und Navi liefert dann fallen sie auf die Fresse, siehe Intel mit 14nm +++++ ultra. 😉 😅

Ausserdem heben viele Entwickler sowieso den Fokus auf Konsolen gelegt da billiger und höher verbreitet dank Sony und MS.

In zu künftigen Titeln wird deshalb PC an Bedeutung und RTX wieder verschwinden meine Meinung dazu.
 
duskstalker schrieb:
Wie das ganze mit dem GPU Parcours wechselwirkt, den man um zwei alte "nvidia-only" Titel ergänzt (FFXV und Hellblade) und dann noch nach und nach in der Sample Size reduziert, steht dann aber doch auf einem anderen Blatt.

Wow, die RX 580 hat im neuen Parcour 3% Punkte gegenüber der GTX 1060 verloren und die RX Vega 64 gegenüber der GTX 1080 ganze 2% Punkte, das ist natürlich grobe Absicht der Computerbase Redaktion!
Du postest das jetzt in jeden Test seit Januar 2019 und noch immer ist es so dass du inhaltlich gesehen unrecht hast und sich diese minimale Verschiebung in der Leistung mit einem anderen Parcour begründbar ist und keine Verschwörung der Computerbase Redaktion zugrunde liegt.

duskstalker schrieb:
Und auch international stellt man mit dem neusten Parcours neue (negative) Maßstäbe auf:

Die 4K Werte weichen von dem Durchschnitt der ermittelten Ergebnisse nur um 2% Punkte ab.
Man muss schon durch und durch hartgesottener Verschwörungstheoretiker sein um hier Absicht zu unterstellen.

duskstalker schrieb:
Die Methoden besser dokumentieren und einen faireren GPU-Parcours nutzen wäre für die journalistische Qualität so oder so zuträglich.

Der GPU Index ist fair, es kommt über den Daumen gepeilt das selbe raus wie bei allen anderen Testseiten.
Vega 64 und GTX 1080 gleichauf, also wo genau dein Problem damit liegt, ist mir immern noch nicht klar geworden.
 
Wadenbeisser schrieb:
Hand aufs Herz, welcher Spieler spielt pro Tag nur eine Stunde. ;)
Lasse es übers Jahr durchschnittlich 2-3 Stunden sein und die Zeit reduziert sich entsprechend.

Das ändert aber nichts daran dass die Karte für das gebotene (langsamer, teurer und halb so viel Speicher wie eine 570er Radeon) preislich weit überzogen ist

Zustimmung für den unteren Teil. Aber 1 Std. Am tag bzw. vielleicht 1,5 ist realistisch (hab ja noch Konsole...). Dafür hält bei mir die Graka im Schnitt 2,5 Jahre.
 
Benji21 schrieb:
@Smartin irgendwie widersprichst du dir selbst.
Du machst hier ein Fass wegen 100 Watt auf, verballern Leute aber wirklich sinnlos Strom sollen sie das doch ruhig machen. Macht irgendwie keinen Sinn oder?

Konsequenterweise müsstest du also die 1650 geißeln und eine APU kaufen weil die weniger Ressourcen benötigt (keine zusätzliche Platine, keine doppelte Kühllösung, weniger Stromverbrauch).
Ich widerspreche mir nicht selbst. Du willst einfach nicht verstehen, was ich sage. Es geht mir nicht darum, zu verbieten, oder im "Zwang des absoluten Minimums" zu leben, sondern es geht mir darum, sinnlose Verschwendung zu vermeiden. Deswegen auch die Aussage, wenn es einen glücklich macht mit der Beleuchtung, dann soll er es machen. Wenn er aber das Gleiche haben kann - nämlich die gewünschte Weihnachtsbeleuchtung - dafür aber weniger Strom verbraucht, wäre er doch blöd, wenn er sich diese effizientere Lösung entgehen lässt, selbst wenn er erstmal ein paar Eur mehr zahlen muss, sich die Mehrausgaben aber nach kurzer Zeit amortisieren? Mitunter ist die effizentere Lösung am Ende billiger, weil die Kosten in der Praxis halt nicht nur die Anschaffungskosten sind. Was ist daran so schwer zu verstehen?
Ich will auch kein APU-System, weils mir einfach zu lahm ist. Warum soll ich auf eine APU Lösung setzen, die nicht mal ansatzweise die Leistung der 1650 hat? Es geht doch um vergleichbare Leistung und nicht und den Vergleich von irgendwas mit irgendwas. Ich will keine APU, weil ich schon nicht auf meine 1080 verzichten will, schon weil ich die Leistung brauche. Aber wenn ich beim Alternativprodukt mit annähernd gleicher Leistung, 100 W mehr verbrauche, warum soll ich dann dazu greifen? Da müsste schon ein deutlicher Preisvorteil mich zu dem ineffizienteren Produkt locken.
 
Nette GPU für PCs die keinen 6-Pin Stecker besitzen aber für alle anderen Zwecke viel zu teuer.
 
KlaraElfer schrieb:
Du postest das jetzt....
Naja, du bezeichnest Leute als "Fanboys", wenn sie nicht deiner Meinung sind. Und willst anderen (wie hier bei Duskstalker) vorgeben, wie sie sich äußern sollen. "Fanboy" gegenüber einem erwachsenen Mann kann man im Grunde schon als Beschimpfung werten. Wenn er so posten würde, wie es dir passt, wäre er für dich kein "Fanboy" mehr.
Ob ihn das interessiert, ist aber fraglich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Arkada, E1nweg und v_ossi
Smartin schrieb:
Und was sind 330h? Bei durchschnittlich 3,3h/Tag sind das gerade mal 100 Tage, also etwas mehr als ein Viertel Jahr. Ab dann spart man mit der NV Karte ggü der 570.
Wenn man Hardcore-Gamer ist, der 23 Stunden die Woche zockt und dabei auch noch keine Ansprüche an die Grafik hat ist das die richtige Grafikkarte. Nur bezweifle ich, dass es davon so viele gibt. :freak:

Smartin schrieb:
Obendrein geht es nicht nur ums Geld. Wenn wir alle weiterhin so den Strom sinnlos verballern, brauchen wir über Klimawandel und ökologischen Fußabdruck nicht zu diskutieren. :freak:;)
Komisch, als Amd die effizienteren Grafikkarten hatte spielte das überhaupt keine Rolle ;)
 
  • Gefällt mir
Reaktionen: HaZweiOh
Smartin schrieb:
sondern es geht mir darum, sinnlose Verschwendung zu vermeiden. Deswegen auch die Aussage, wenn es einen glücklich macht mit der Beleuchtung, dann soll er es machen. Wenn er aber das Gleiche haben kann - nämlich die gewünschte Weihnachtsbeleuchtung - dafür aber weniger Strom verbraucht, wäre er doch blöd, wenn er sich diese effizientere Lösung entgehen lässt,

Geht es dir jetzt um Ökologie, wie im ersten Satz oder doch Ökonomie, wie später dann ausgeführt?

Ökologisch sinnvoller wäre es (wahrscheinlich) die alten Lichter weiter zu verwenden, weil für die Produktion der neuen Lichter ja auch ordentlich CO2 und Ressourcen verballert wurden.
 
Naja es gibt den Einsatzzweck für die Karte. Aber er ist relativ eng. Die Leistung ist leider sehr mau, reicht aber vermutlich für viele Spiele alla Fortnite und Lol in FH vollkommen aus. Da sparrt man dann auch am Strom.

Der Stromverbrauch ist ansonsten bei jedem selber zu bewerten. Ich weiß auch nicht was wir anders machen, aber ich komme in unserem 2 Personenhaushalt auf etwas über 1650kw Stunden im Jahr. Und dieses Jahr haben wir den Kühschrank von vor 12 Jahren ausgetauscht. Mal schauen was das heißt.

In meinem Pc werkelt eine ineffiziente RX480, welche aber natürlich nur nach der Arbeit oder am Wochenende anspringt und natürlich auch nicht immer auf Vollast läuft.

Zum Topic zurück:
Ich denke hier hat man eine "minimalistische" GraKa geschaffen die sich um den Sweetspot herum bewegt und gut stromsparend ist. Der Preis muss sich aber noch einpendeln, ansonsten würde ich aus meiner Perspektive hier nie zugreifen.


Edit:
Die Argumente die hier für und gegen Stromverbrauch etc. ausagetauscht werden arten etwas aus. Es ist doch im Endeffekt egal. Man sparrt Geld/Strom/Sprit wo man kann, gibt es dann aber vllt. an den Stellen aus, wo man es haben will. Vllt. hat man extra nur ein Auto und versucht viel Rad zu fahren, aber nach Griechenland wird dann trotzdem geflogen und die CO2 Bilanz sieht wieder etwas schlechteraus. So ist das halt. Das muss jeder für sich selber wissen. Verurteilen möchte ich aber keinen.
 
  • Gefällt mir
Reaktionen: HaZweiOh und Alphanerd
Web-Schecki schrieb:
Was ist 32-Bit Grafik?


in der pre geforce generation waren die ati karten mit 24bit interner rechen genauigkeit ausgestattet, die nvidia nur mit 16bit.

https://de.wikipedia.org/wiki/Nvidia_Riva

damals hatten alle tester immer 16bit und 32 bit farbtiefe in den test´s.

amd karten gab es damals noch nicht, meines wissens.

jedenfalls hatte nvidia damals schon immer die nase bei 16bit und 1280x1024 vorn. so bald man 32 bit und höhere auflösungen verwendet hat, waren ati karten besser.

der user hatte nur nichts davon, da nvidia damals schon mit "förderprogrammen" gearbeitet hat. heute nennen wir es: the way, its meant to to played. :evillol:

mfg

p.s.

noch was zum lesen....

https://www.chip.de/artikel/Kaufberatung-Grafikkarten-fuer-Einsteiger-2_139943590.html
https://www.anandtech.com/show/392/8 ← fast 20jahre alt aber trotzdem immer noch wahr.

"Als weiteres Unterscheidungskriterium besitzen die TNT2-Chips im Gegensatz zu der abgespeckten M-64-Variante ein 128-bit-breites Speicherinterface. Das erhöht die maximale Speicherbandbreite und verringert den Leistungsabfall bei 32-Bit Farbtiefe. " ← und selbst der test war gekauft. :heilig:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Schranz0815 und yummycandy
Web-Schecki schrieb:
Was ist 32-Bit Grafik?
Falls die Frage ernst gemeint ist ?!
Früher(tm) wurden die Spiele wahlweise in 8 bit (256 Farben), 16 bit aka 'High Color' (65.000 Farben) und 32 bit aka 'True Color' (4 Mrd. Farben) angeboten. Der Unterschied war vor allem im weicheren Farbverlauf des Himmels bzw. Kerzenflackern zu sehen (bei 16bit häßliche Kanten und mehr Dithering). Das hing afaik an der Speicherbandbreite damals.

Heute fehlt solcher Schalter komplett, da es immer 32bit ist.

EDIT: Mich würde es aber interessieren, ob es heute ein Geschwindigkeitvorteil bei 16bit gäbe
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: [wege]mini
Die tatsächlichen Taktraten bei Oberwatch sind in die Tabelle andersrum falsch geschrieben.
 
@Jan ... schön das du dich hier meldest.

Dich der Kritik annimmst, bzw versuchst anzunehmen.

Die einzige Frage die bleibt ....
Warum wird AMD direkt in der Überschrift zerrissen und nVidia NIE ?

Die Karte hier, hätte das absolute Potenzial dazu.

Die RVII hat dagegen Potenzial eine Große zu sein ...

Es ist mühselig darüber zu sprechen, wenn man den Inhalt des nVidia NDAs nicht kennt.
Ich betone es aber nochmal.
Sollte alles wie ihr sagt "beim Alten" geblieben sein, dann hätte es den Aufruhr (zB von Heise) über die NDA nicht gegeben. Es heißt sogar das der Tester namentlich an nVidia mitgeteilt werden muss. Entschuldigung, aber was hat genau dies, mit unbefangen zu tun? Was hat nVidia sich in "Freie Presse" Artikel einzumischen?
Was geht nVidia es an, wer den Artikel testet?

Seit der NDA Unterzeichnung, gab es bei Euch keinerlei nVidia Kritik als Headline. Obwohl diese die Kritikwürdigkeit ja quasi auf dem Silbertablet servieren (Preis) ..

Ich lese eure Artikel gern, bin nahezu jeden Tag, oder sogar mehrmals täglich hier.
Zudem ist die Community sehr hilfsbereit und viele Probleme lassen Sich hier schnell, mit Hilfe der Foren User, lösen.

Eine NDA hat natürlich immer den Beisatz, das man über die NDA nicht reden darf ... was sehr verständlich ist.
Aber in meinem Fall (welcher Euch freilich kaum interessiert), würde ich gerne eine unvoreingenommene Meinung im Test über genau das getestete Produkt, lesen.

Und es gibt in eurer Redaktion sicher mehr kritische, als positive Stimmen über die 1650.
Denn so richtig positiv ist ausschließlich der Verbrauch.
Dahingegen stehen nur Nachteile, die man gern mal in den Titel verpacken könnte... um auch die Unbefangenheit wirklich erkenntlich zu zeigen.

Irgendwo im Fazit, ist halt auch kein Werbeeffekt mehr für viele ...

Die ersten Kommentare zeigen es ja, das ihr irgendwie in die grüne Richtung abgedriftet seid. Ob nun wegen (wahrscheinlich) dem NDA, oder persönliche Vorlieben.

Beides hat aber in einem objektiven Test keinerlei Belang.

Also bleibt fair, gegenüber allen (!) Herstellern.
Fairness beinhaltet auch Kritik an Produkten, die Kritikwürdig sind. (1650 at its best).
 
  • Gefällt mir
Reaktionen: s0UL1, Herr Melone, DeadEternity und 8 andere
[wege]mini schrieb:
Seby007 schrieb:

Ach, es geht also um die Farbtiefe. Das hat halt mit FP16 vs. FP32 wenig zutun. Und bei der Farbtiefe will man eher mehr als weniger, Stichwort HDR.
Standard RGB sind übrigens 24 Bit (ohne Alpha-Kanal), erst mit HDR braucht man mehr, aber man rechnet gerne mit 32 Bit, weil es ne Zweierpotenz ist. Für HDR10+ werden sogar 36 Bit verwendet.
 
  • Gefällt mir
Reaktionen: Seby007
Roche schrieb:
Und selbst bei 100W mehr Verbrauch muss man schon ne ganze Weile auf Volllast zocken um die mind. 20€ Aufpreis wieder einzuspielen.
Dürfte auf dem von dir angesprochenen Bürorechner sicher nicht so oft vorkommen.

Wenn ein neues Netzteil fällig wird siehts gleich wieder ganz anders aus.
 
Die Überschrift ist (mal wieder) komisch gewählt.. Was aber nicht von Bedeutung ist, da wir uns ja hier in einem Mathe- Blog befinden. Gefühlte 100 Posts zur Stromkostenberechnung. Wer wegen paar Euro im Jahr den Rechner ansetzen muss, sollte sich vielleicht eine Konsole holen.
 
  • Gefällt mir
Reaktionen: adaptedALPHA, Herr Melone, DeadEternity und 4 andere
Zu dem lustige Öko CO2 Bilanz Diskussionsthema, trotz ca. 4000 kWh in diesem Jahr kann mir die Mecker Fraktion den Buckel runter rutschen, Öko Strom sei Dank. :volllol:
Die 10% Aufpreis habe ich dann auch noch über, mache dafür mit größeren, selteneren Einkaufsturen weniger sinnlose Fahrten und spare die Kohle beim Sprit locker wieder ein.
 
Mcr-King schrieb:
Warum sollte eine Ti kommen 150-180€ GTX1650, GTX1660 180-230€ wo solte die passen
Die 1650 ist ja kein TU117-Vollausbau, damit ist eine Ti durchaus realistisch, auch wenn aktuell der preisliche Abstand 1650 / 1660 kaum Spielraum dafür bietet.

Evtl. ist die Ti in Kombination mit einer deutlich billigeren 1650 dann die Antwort auf Navi - spätestens dann hat Nvidia wohl dringend Handlungsbedarf, damit nicht auch die treuen Anhänger langsam ins Wanken kommen
 
Zurück
Oben