Test GeForce GTX 1650 im Test: TU117 punktet mit Effizienz statt Leistung

Was leistet eine RX 570 eigentlich mit -50% Power Target?
 
Acedia23 schrieb:
Zu langsam, zu teuer, zu alter Encoder, aber stromsparend.

Wäre wohl bei einer Radeon die Überschrift gewesen ;-)

"stromsparend" bei einer Radeon in der Überschrift? Der war gut! 😂
 
Smartin schrieb:
Aber wenn ich beim Alternativprodukt mit annähernd gleicher Leistung, 100 W mehr verbrauche, warum soll ich dann dazu greifen? Da müsste schon ein deutlicher Preisvorteil mich zu dem ineffizienteren Produkt locken.

Wo hat die denn annähernd gleiche Leistung? Die ist in Sachen Leistung weiter weg von der RX570 als die VII von der 2080. Da wurde aber ein richtiges Fass aufgemacht (230W vs 290W) was im Gegensatz zur 1650 vs. RX 570 ein Witz ist. Dazu gibt es auch ab Werk sparsamere Modelle der RX570 die näher an der 100 Watt Grenze sind.

Eine Sapphire RX570 Pulse mit 4GB geht aktuell ab 114 Euro los gemäß Geizhals, die 8GB Varianten der RX570 starten für 20 Euro mehr.
Die 1650 startet bei 149 Euro. Die Sapphire RX570 Pulse braucht aber auch nur im Schnitt 153 Watt beim zocken, sprich 75 Watt mehr. Auf dem Desktop sind es 14 vs. 6W. Youtube 30 vs. 16W.

Nehmen wir das Modell aus dem Test (Gigabyte 1650 "OC") sind wird bei knapp 169 Euro vs. 114 Euro. Abseits von Spielen ist der Vorteil über den Stromverbrauch marginal, in Spielen sind es immerhin 78W auf Seiten der 1650 vs. 153W bei der RX570 Pulse. Mal überlegt wie lange du brauchst um alleine den Aufpreis für die 75W weniger Leistungsaufnahme wieder rein zu holen und dann DANACH effektiv an der Stromrechnung zu sparen? Bei einer Stunde am Tag zocken (weil ansonsten fallen 8 und 14 Watt nicht wirklich auf, das ist quasi ein Lüfter)?

Bevor du die Kohle als Gelegenheitsspieler wieder drin hast wirfst du die Karte eh für den Nachfolger raus, zahlst also im Prinzip drauf und der Vorteil für die Umwelt ist = 0.
 
  • Gefällt mir
Reaktionen: Casillas, Rockstar85, E1nweg und 4 andere
highwind01 schrieb:
"stromsparend" bei einer Radeon in der Überschrift? Der war gut! 😂
Da hat aber jemand genau verstanden, worums geht ;)
 
  • Gefällt mir
Reaktionen: Valeria und Rock Lee
Web-Schecki schrieb:
Das hat halt mit FP16 vs. FP32 wenig zutun.


ach, echt?

wie viele hier wissen eigentlich, wie schatten, nebel, licht, explosionen usw. wirklich "berechnet" werden?

es gibt ground maps, light maps, maps für spiegelungen, explosionen usw.

dann werden mit shadern diese vorberechneten effekte in dein 3d bild reingeschummelt und da wir so abgestumpft sind und nichts anderes kennen, merken wir es nicht.

jeder ray tracing hater kann dir hier schön erklären, warum dieses system "super" ist und man z.b. echte spiegelungen und schatten nicht braucht :D

am ende wird man bei guter software nicht merken, ob deine light map, die ground map, die shadow map usw. mit doppelter, einfacher oder halber genauigkeit eingefügt werden. der effekt dauert doch sowieso meist weit unter 1 sec.

stellt sich doch keiner (mehr) in ein computer spiel und starrt begeistert auf schatten.....ich kann mich noch erinnern, ich habe bei der ersten half life 2 demo stundenlang mit knarren auf einen reifen geschossen, weil ich nicht fassen konnte, dass es erstmals echte physik gibt. :evillol:

mMn reicht fp16 für schnickschnack völlig aus. kein mensch würde mit fp64 (double precision) 3d spiele machen, total mit kanonen auf spatzen schießen....warum nicht mit halber genauigkeit probieren?


mfg
 
  • Gefällt mir
Reaktionen: v_ossi und Mcr-King
Roche schrieb:
Oder halt einfach zukünftig bessere Titel benutzen.
Bei der Radeon VII habt ihr ja auch direkt im Titel alle Unzulänglichkeiten knallhart aufzählen können und wollen.
Hier hingegen stellt ihr im Titel erstmal nur den positiven Aspekt heraus und geht erst im Artikel auf die deutlichen Nachteile ein.

Da braucht ihr euch nicht zu wundern, dass das Ganze ein gewisses "Geschmäckle" hat.
Roche schrieb:
Oder halt einfach zukünftig bessere Titel benutzen.
Bei der Radeon VII habt ihr ja auch direkt im Titel alle Unzulänglichkeiten knallhart aufzählen können und wollen.
Hier hingegen stellt ihr im Titel erstmal nur den positiven Aspekt heraus und geht erst im Artikel auf die deutlichen Nachteile ein.

Da braucht ihr euch nicht zu wundern, dass das Ganze ein gewisses "Geschmäckle" hat.
Jaja :heul: , bei dir hat alles was nicht Sinn befreit "hurra AMD"("besserer Titel") auf der Verpackung hat Geschmäckle.

Das du meinst bei der Radeon VII Test-Überschrift müssen Positive Aspekte aufgezählt werden(16GB HBM2 hatte man übrigens erwähnt), und hier lassen die Leute ihrer Polemik freien Lauf weil der Preis zu Release noch nicht passt, zeigt einfach das die Personen dir inklusive den Gong nicht gehört haben.

Und so positiv ist die Überschrift nicht.......
Der Test zeigt auch fällt der Preis nicht ist der Markt mit zu vielen Modellen überschwemmt und von sachlicher Sicht wird es schwer diese Karte zu rechtfertigen.
Problem hierbei nur ist das der Preis eigentlich meist immer etwas fällt sobald sich neue Modelle eingereiht haben und ausreichend verfügbar sind.
Wird auch hier der Fall sein, dann könnte in gewissen Builds diese Karte aufgrund ihrer Effizienz durchaus ihre Berechtigung haben.
 
  • Gefällt mir
Reaktionen: KlaraElfer und USB-Kabeljau
highwind01 schrieb:
"stromsparend" bei einer Radeon in der Überschrift? Der war gut!

AMD Radeon RX 480 im Test: Schnell und effizient mit 8 GByte für 260 Euro

Passive Radeon RX 460 im Test: XFX ist konkurrenzlos, in mehrerer Hinsicht

Die im Test eingesetzten Nvidia-Grafikkarten ziehen aufgrund der genutzten Konfiguration deutlich mehr Strom aus der Steckdose – das gilt auch für die eigentlich extrem energieeffiziente Pascal-Generation. Entsprechend agiert die XFX-Grafikkarte sehr stromsparend.

Ich verstehe den Witz nicht.
 
  • Gefällt mir
Reaktionen: KlaraElfer, USB-Kabeljau, DeadEternity und 2 andere
Mcr-King schrieb:
... GTX1660ti lasse ich weg, weil die genau wie die GTX1650 keine dasein Berechtigung haben.
Auf gut deutsch NV möchte ja schon fast einen dazu drängen eine PS5 zukaufen. 😉

Naja, fuer Notebooks ist gerade (einzig) die GTX 1660Ti noch interessant, weil es dort keinen unsinnigen RTX-Preisaufschlag geben duerfte (es die staerkste non-RTX Karte nVidias bleiben duerfte), auch wenn diese im Vergleich zur (auslaufenden) GTX 1070 mit 8GB weniger langlebig ist, dafuer aber effizienter und die GTX 1060 mit 6 GB die zu vergleichende Vorgaengerkarte mit deutlich weniger Leistung ist.

Die 1650 ist aber selbst als GTX 1050(Ti) Nachfolger selbst im Mobilbereich fuer einen Nachfolger einfach nur schwach, dazu der stagnierende Speicher ... wirklich zum abgewoehnen und fuer mich in kommenden Notebooks leider komplett uninteressant.

Es bleibt zu hoffen, dass die Surface Book 3 13" Variante zumindest eine 1660 in der Mobilversion spendiert bekommt, aber weiss ... fuer die 15" Variante duerfte es wohl auf eine RTX 2060 hinauslaufen - wobei 6GB RT-Raytracing leider begrenzt sinnvoll waere - da eine RTX 2070 wohl leider zu teuer und schwer zu kuehlen wuerde.
 
  • Gefällt mir
Reaktionen: Mcr-King
Ein Glück, dass Nvidia die tolle GTX 1650 gebracht hat! Die RX 570 ist schließlich bekanntermaßen ein stromhungriges, heißes und lautes Monster... :-D
 
  • Gefällt mir
Reaktionen: Rockstar85 und Mcr-King
Komisch ist nur dass RT schon von Intel AMD und jetzt halt von NV versucht wird, aber mehr halbgar und nicht mit voller Überzeugung. Genau deswegen mag ich die ganze GTX16er Serie nicht weil sie aussagt RTX ist cool aber für den Fall dass es nicht klappt gibt es die GTX16er weiter.

Genau dass wird auch passieren wie viele RT Titel gibt es die gut sind und gute Performance haben selbst auf einer RTX2060.

Genau deswegen hätte man eigentlich auch die GTX10er bis GTX1070 weiter laufen lassen können. 😉
 
  • Gefällt mir
Reaktionen: Heschel
Chismon schrieb:
da eine RTX 2070 wohl leider zu teuer und schwer zu kuehlen wuerde.


der nächste shrink kommt doch bald.

die leistung wird weniger stark steigen, als viele arwarten. die kosten werden endlich mal wieder fallen und am ende sind alle glücklich. nvidia hat wieder kleine chips mit hoher marge im "high-end" bereicht und der user bekommt seine rtx3080ti für unter 1k euro.

dafür ist die nur 5-10% schneller als eine rtx2080ti und viele gtx1080ti werden immer noch bei ihrer karte bleiben.

so, mal die glaskugel wieder weg legen :D

mfg
 
Nee denke nicht grade so ein großer Chip wie der TU102 reden wir von 754 mm² dass ist auch der Grund warum man noch 12nm genommen hat, wegen der ausbeute.

Auch debke ich dass NV genau wie Intel nix in der Schublade hat sozusagen da die RTX ja auch viel zu früh auf dem Markt kam. 😉

Naja mal auf Navi und PS5 warten.
 
[wege]mini schrieb:
... nächste shrink kommt doch bald.
die leistung wird weniger stark steigen, als viele arwarten. die kosten werden endlich mal wieder fallen und am ende sind alle glücklich. nvidia hat wieder kleine chips mit hoher marge im "high-end" bereicht und der user bekommt seine rtx3080ti für unter 1k euro.
dafür ist die nur 5-10% schneller als eine rtx2080ti und viele gtx1080ti werden immer noch bei ihrer karte bleiben.

Ja, meiner Schaetzung nach fruehestens Herbst 2020, kurz vor den Next-Gen Konsolen von Sony und Microsoft, denn nVidia hat aktuell keine Eile und falls Navi 20 aufschlagen sollte, wuerde das wohl fruehstens Sommer 2020 passieren (an das Fruehjahr 2020 glaube ich noch nicht so recht und ob man damit eine RTX 2080Ti abloesen wird koennen?) ;).

Selbst wenn sich Navi gut skalieren laesst, denke ich auch, dass soviel nicht mehr aus GCN heraus zu quetschen ist und von GDDR6 (Navi10) duerfte man auch nicht 'mal kurz auf HBM2 fuer Navi20 umstellen, da sich das nicht rechnet, aber vermutlich noetig waere um ernsthaft eine RTX 2080Ti in der Leistung anzugreifen.

Daher denke ich dafuer benoetigt man bei AMD/RTG wohl die "Next-Gen"/"Arcturus"-Oberklasse-Architektur-Karten ... diese koennte Chiplet-basierend, modular und vor allen Dingen compute-bereinigt sein fuer reine Gaming-Ableger ... jedoch, von effizienter Multi-GPU-Power per Infinity Fabric traeume ich auch dort in erster Generation zuerst einmal nicht (und wenn es doch so kommen sollte, dann sicherlich noch nicht reibungslos und breitgefaechert von Entwicklern unterstuetzt).

Dein Ausblick waere also eine Wiederauflage der Pascal-Vermarktung, nur ist man dort aber preislich eben nicht zurueck gegangen trotz Noden-Shrink von Maxwell ausgehend, so dass Du so etwas wohl wirst knicken koennen, dass eine 80erTi GPU von nVidia wieder unter 1000 Euro zum Marktstart eines 7nm Turing Refreshs oder Nachfolgers fallen wird.

Denn die Gewinne der eigens befeuerten Preistreiberei/-steigerung bei den GPUs steckt nVidia zur Gewinnmaximierung und um neue Unternehmensrekorde anzupeilen gerne ein, denn die Kunden sind dem nVidia Management doch relativ egal und auch so hoerig genug.

Was dort primaer zaehlt sind die Aktionare/Unternehmensgewinne (das hat man an Huangs Reaktionen in der juengeren Vergangenheit doch gut ablesen koennen).

Auch waere ich mir nicht sicher, dass man wieder soviel Leistung einfach weiter reichen wird, wie damals noch, also analog eine RTX 3070 in etwa leistungstechnisch auf Niveau einer RTX 2080Ti bekommen wird (und falls doch, duerfte das bei 599 US$ als Marktstartpreis fuer eine RTX 2070 FE wohl dann schon in Richtung der alten 80erTi Preise gehen, also 699 US$ fuer eine RTX 3070 FE) ;).

Ergo, kann ich Dich gut verstehen, dass Du Dich nach den "alten Zeiten" zurueck sehnst und Deine Glaskugel in allen Ehren, aber ich halte das fuer relativ ausgeschlossen, das man das gleiche Preis-Leistungs-Verhaeltnis wie bei den Pascal GPUs seitens nVidia in Zukunft noch einmal geboten bekommen wird, es sei denn AMD und Intel werden so starke Konkurrenten (und erobern massiv Marktanteile von nVidia), dass nVidia keine andere Wahl bleiben wird, aber das duerfte sicherlich nicht schon 2020 der Fall sein und haengt massgeblich von der Kundschaft ab.
 
  • Gefällt mir
Reaktionen: Mcr-King
Ein GPU Test, bei dem nur 5 Spiele getestet werden, ist wenig aussagekräftig. Aus den 5 Spielen dann noch ein Leistungsrating zu nachen, ist schon ziemlich albern.
Der Test kommt ja auch noch ein paar Tage später als bei den Kollegen, da habe ich mit einem besseren gerechnet.
 
  • Gefällt mir
Reaktionen: Casillas, AssembIer, Mcr-King und eine weitere Person
Benji21 schrieb:
Ab Anfang April 2018 ging es dann mit einem Threadripper 1920x, X399 Board, 8x 8 GB DDR4, 3x M.2 SSD und einer Vega 64 (später 1080 TI und 2x Vega 56 im Crossfire) weiter. Jahresverbrauch 2018: 2142 KWh. Dazu war das System übertaktet, das alte nicht.

2142kWh. Da würde ich gerne nachhaken.

Ich spiele gerne und nicht wenig PC. Ca. 16 Stunden pro Woche würde ich sagen.
Mit einem Haswell Xeon und RX580 habe ich sicher keine Stromfresser zu bedienen.

Dass dein Jahresverbrauch als Singlehaushalt mehr als doppelt so hoch ist als bei unserem 2 (!) Personenhaushalt (970kWh) finde ich erstaunlich.

Ist der PC immer an?
 
  • Gefällt mir
Reaktionen: Neronomicon
@|Moppel|
bla.jpg

Super Stromthread übrigens, worum gings hier ursprünglich? 🤷‍♂️
 
Pisaro schrieb:
Warum holt man immer wieder alte Kamellen raus? Völlig sinnlos.

Lesen und den Kontext erfassen. Falls nicht alleine machbar: einen Erwachsenen um Hilfe bitten.
 
  • Gefällt mir
Reaktionen: Krautmaster
|Moppel| schrieb:
Dass dein Jahresverbrauch als Singlehaushalt mehr als doppelt so hoch ist als bei unserem 2 (!) Personenhaushalt (970kWh) finde ich erstaunlich.

Ist der PC immer an?

Unter 1000 kWh sind ja wohl unnormal wenig. Das geht nur ohne Trockner, ohne Tiefkühler und eure Spülmaschine, falls überhaupt vorhanden, läuft wohl auch selten.
 
  • Gefällt mir
Reaktionen: Schnitz
Zurück
Oben