Test GeForce GTX 1650 im Test: TU117 punktet mit Effizienz statt Leistung

:streiten:

Der Thread dreht sich im Kreis.
Bin dann mal weg.:mussweg:
 
  • Gefällt mir
Reaktionen: Acedia23
Cross Platform giebt es von MS wegen zwei Punkten erstens war sie Xbox am Arsch zweitens hat sie auch Win und seit längerem DX12.

Sony macht iher eigenes Ding da sie Marktführer sind deswegen konnen sie dass sie Haben auch ein Speziellen Chip von AMD mit 16FP und diversen anderen Upgrades. 😉 Dass lange for Vega.

Aber zuviel off deswegen zurück zum Thema.

Also die GTX1650 und allgemein die GTX16er Reihe finde ich total deplatziert Sorry entweder RTX und DLSS oder gar nicht.

Zur PS5 ja sie wird Zen2 haben 8c und eine Navi speziell für die PS5 entwickelt. Darauf wird dann der Nachfolger von Navi aufbauen denke ich im Chiplet Verfahren weil es günstiger und skalierbar ist.

Somit wäre man NV wieder davon gezogen genau so was höhrt man auch bei Intel und dann möchte ich mal NV 2020 sehen. 😉
 
  • Gefällt mir
Reaktionen: franzerich und [wege]mini
Ich glaube nicht dass sich Nvidia so auf ihrem Vorsprung ausruht wie Intel, die werden mit Sicherheit nicht schlafen.

Die Frage ist wann Nvidia was bringt, Zugzwang werden sie denke ich nicht haben. Dafür müsste Navi schon extrem gut werden um die aus der Reserve zu locken. Die 16xx Reihe ist nur irgendwie über, auf der anderen Seite macht unterhalb der 2060 RTX/DLSS im Prinzip keinen Sinn weil die Leistung eh nicht ausreicht.
 
Mcr-King schrieb:
MS wegen zwei Punkten erstens war sie Xbox am Arsch zweitens hat sie auch Win und seit längerem DX12.

das sehe ich nicht ganz so. aber letzten endes ist meine meinung ja auch reine spekulation.

Mcr-King schrieb:
denke ich im Chiplet Verfahren weil es günstiger und skalierbar ist.

auch das sehe ich nicht so. hier hätten wir dann dual gpu on chip und ich kann mir einfach nicht vorstellen, dass damit die "mirco ruckler" weg sind.

trotzdem lasse ich mich immer gerne positiv überraschen.

um wieder den weg zurück zur topic zu finden.....

die gtx1650 wäre auch eine schöne karte in den neuen konsolen. :evillol: (natürlich nicht bei 75watt)

mfg
 
LencoX2 schrieb:
Der Thread dreht sich im Kreis.
Richtig. Ich konnte jetzt aber nachvollziehen, dass es tatsächlich auch Regionen gibt, wo im Moment 27 Cent ein guter Preis ist (wohl noch so lange, bis die Stromautobahnen fertig sind, schätze ich). Das würde im Durchschnitt aus günstig (23 Cent) und teuer (27 Cent) dann 25 Cent als Mittelwert ergeben. 30 Cent waren und sind als Durchschnittswert Unfug.
 
Zuletzt bearbeitet:
@Mcr-King
Du vergeudest an mir deinen Firmentreuen Vortrag, vor allem da ich nicht sehe was dein Beitrag an mich mit meinem Beitrag zu tun haben soll, du kannst Abstand von mir nehmen denn auf deine Beiträge lege ich keinen Wert, erneuter Spam an mich bestrafe ich gerne mit eine Aufnahme auf die Igno-Liste.
 
  • Gefällt mir
Reaktionen: Infi88
Benji21 schrieb:
Ich glaube nicht dass sich Nvidia so auf ihrem Vorsprung ausruht wie Intel, die werden mit Sicherheit nicht schlafen.

Die Frage ist wann Nvidia was bringt, Zugzwang werden sie denke ich nicht haben. Dafür müsste Navi schon extrem gut werden um die aus der Reserve zu locken. Die 16xx Reihe ist nur irgendwie über, auf der anderen Seite macht unterhalb der 2060 RTX/DLSS im Prinzip keinen Sinn weil die Leistung eh nicht ausreicht.

ich denke die 2080ti/titan hat gezeigt dass sie sich eben nicht ausgeruht haben wie intel und das bei dem 12nm
aber selbst wenn sie sich für ein weilchen ausruhen würden hat man in der vergangenheit gesehen dass das ziemlich wurst ist die fanatischen nvidafanboys kaufen alles ...
 
SchwertSchild schrieb:
bestrafe ich gerne mit eine Aufnahme auf die Igno-Liste.


m8...bestrafe dich nicht selbst.

wenn du immer nur deine meinung hören willst, rede mit dem spiegel.

kA wie deine lebenseinstellung ist, aber mMn höre ich mir immer alles an und "bestrafe" die menschen damit, dass mir egal ist, was sie sagen :heilig:

ich kann dir aber sagen....es ist wichtig, sich die anderen ansichten wenigstens an zu hören....

manchmal ist man tatsächlich überrascht, mal schöne, neue ansichten vermittelt zu bekommen.

mfg

p.s.

klar ist der king manchmal "anstrengend"....ich weiß aber wo von ich rede....

p.s.s.

die brücke finde ich wieder....die gtx1650 ist auch ein wenig deplaziert....so wie die afd (gelbe erdbeeren)....

ich kann und will niemanden "bestrafen", weil er das eine kauft und das andere wählt. beides sind produkte unseres zeitgeistes.

SchwertSchild schrieb:
halte ich für deplatziert.

hab ich mal durchgestrichen, ich will ja keinem auf die füße treten. :D und...ich habe mir mal gespart, irgend eine andere partei einzufügen, die dir dann gefällt.

@HaZweiOh

du bist auch päpslicher als der papst. naja....wenn du probleme mit gelben erdbeeren hast, weist du ja, wer die in umlauf gebracht hat.
 
Zuletzt bearbeitet:
@[wege]mini
Lies dir seinen Beitrag einmal an mich durch, das hat nichts mit meinem Beitrag zu tun, er wollte nur seinen Firmentreuen Vortrag ablassen, wie er das schon sehr oft hier getan hat.
Bekehrungsversuche von Firmentreuen sind für mich keine Meinung, das ist lediglich Belästigung und Abwertung anderer, damit will ich nichts zu tun haben, egal von welcher Seite auch immer.
Solche Leute haben Probleme, sie wollen sich besser fühlen indem sie uns ihre Probleme aufhalsen, das brauche ich nicht.
[wege]mini schrieb:
die gtx1650 ist auch ein wenig deplaziert....so wie die afd....
Ich bin auch kein Fan der AFD, aber diese Karte damit zu vergleichen halte ich für deplatziert.

Nachtrag:
Die bewerbung für die Igno Liste wurde für Mcr-King angenommen, Grund, erneute Werbebotschaften mit feindseligen/abwertenden Unterton.
 
Zuletzt bearbeitet von einem Moderator: (Nachtrag)
  • Gefällt mir
Reaktionen: kisser, HaZweiOh, Infi88 und eine weitere Person
Politische Parteien haben in einer Diskussion über Grafikkarten nichts zu suchen. Das gibt nur Streit.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Valeria, Mcr-King, Infi88 und eine weitere Person
Benji21 schrieb:
Ja, extra übertaktet und zieht die 88 Watt komplett über den Slot. :freak: :stacheln:
Tut doch gar nichts zur Sache, die 88 Watt gegen die 164W beschreiben trotzdem den Effizienzunterschied der beiden Chips.
Als ob du andersrum eine RX570 bei 1650 Leistung auf 64W bringen könntest.
Von 164W auf 120W runter glaube ich noch, und damit verbrauchst du immer noch fast doppelt so viel.
 
  • Gefällt mir
Reaktionen: Infi88 und KlaraElfer
Nein ein Chiplet hat nix mit Dual GPU zutun.

Dual GPU auf ein PCB gab es schon und ja man hat mikroruckler nur ein Chiplet wäre vergleichbar mit Ryzen 2.

Also man Nehme eine Basis GPU hänge Decoder dran und RAM Controller diverse Sachen z. B. RT Cores und Tensor Cores Deep Leering CPGPU und fertig ist die High end Profi Karte.

Beim Gaming dann alles Raus was nicht benötigt wird und fertig ist die Gaming GPU.

Bei einer APU dann einfach eine CPU dran geworfen und tada fertig ist die APU.


Bei High End Gaming dann zwei Basis CPUs und fertig ist die High end Gaming GPU.

Sowas nennt man dann Chiplet und extrem Skalierbar ohne Tausende von Masken zu benutzen.
 
Taxxor schrieb:
Tut doch gar nichts zur Sache, die 88 Watt gegen die 164W beschreiben trotzdem den Effizienzunterschied der beiden Chips.
Als ob du andersrum eine RX570 bei 1650 Leistung auf 64W bringen könntest.
Von 164W auf 120W runter glaube ich noch, und damit verbrauchst du immer noch fast doppelt so viel.

Natürlich bekommst du eine RX570 nicht so weit runter, die Architektur ist von 2016(!!). Die 88 Watt sind nur dezent über der Spezifikation vom PCIe 3.0 16x Slot und es gibt sogar Boards die schaffen diese maximal knapp 79,8 Watt nicht mal ansatzweise sondern machen bei 50 Watt schon dicht. Entweder läuft die total sparsame Karte da garnicht oder dein Mainboard macht vorzeitig die Biege.

Es gibt durchaus RX570 die du an die 100W mit Undervolting bekommst, das sind dann in der Regel aber nicht die OC Varianten.
 
  • Gefällt mir
Reaktionen: Mcr-King
[wege]mini schrieb:
16 "bit" bedeutet nur 16 stellen von 0 und 1. das ist im binären system leider der (durchschnittliche) standart.

ob ich damit farben oder effekte berechne, ist egal. des chip kann 0 und 1, 16 stellen lang^^

Das "FP" in FP16 bedeutet floating point. Also eine Gleitkommazahl mit 16 Bit. siehe Wikipedia, falls du mir nicht glaubst. Eine GPU kann zum Glück viel mehr als nur FP16. FP16 ist nur EINE Möglichkeit, um Gleitkommazahlen darzustellen. Und Standard schreibt man mit d.

[wege]mini schrieb:
warum ich das so erkläre....man stelle sich vor, der chip könnte 4 (16) verschiedene zustände (ja strom kann so etwas).

Klar könnte man mehr als zwei Zustände speichern - macht man aber in Schaltngen nicht, weil der technische Aufwand zu hoch wäre. Zustände werden auch nicht "mit Strom" gespeichert, sondern mit Spannungen.
In SSDs werden zwar Speicherzellen verwendet, die mehr als ein Bit speichern können, siehe MLC, TLC, QLC. Damit wird aber nicht gerechnet.

[wege]mini schrieb:
dann hätte man 16 quadruple oder mit hexadezimal sogar 16x16 zustände, wenn man 16 hexadezimas benutzen würde. über 32 "hexadezimas" will ich gar nicht nachdenken, bei 64 stellen wird es langsam so grenzwertig, dass die vorstellungskraft von menschen erreicht wird.

xx kann im binär system maximal die zahl drei ergeben. im dezimalen system sind wir schon bei 99, im hexa system hätten wir FF, also 255 zahlen :D
Ähm.. Hä?? Also Computer rechnen ausschließlich im Binärsystem. Ich weiß auch nicht, was das mit der Vorstellungskraft den Menschen zutun hat. Ja, du kannst in einem beliebigen Zahlensystem rechnen und sparst dann auch Stellen ein, wenn du große Zahlen darstellst. Macht der Computer aber nicht. Was willst du damit also sagen?

[wege]mini schrieb:
die mathematiker haben die zukunft der informatik doch schon vor jahrzehnten eingeläutet. jetzt müssen die ingenieure und die aktionäre einfach mal mit ziehen, damit wir auch im nächsten jahrhundert ankommen können.
Nochmal: Hä?

[wege]mini schrieb:
natürlich hat fp16 etwas mit "farben" zu tun.

möglicher weise sollte man aber ein mathematik, physik und informatik studium abgeschlossen haben, um die parallelen zu erkennen.
Immer noch: Nein. Und wenn du eines der genannten Fächer studiert hättest, würden wir die Diskussion nicht führen.

Nochmal: FP16 bezeichnet Gleitkommazahlen mit 16 Bit. Üblich sind mehr Bit, womit man eine höhere Genauigkeit hat. Warum es überhaupt Ungenaugkeiten gibt, wird hier z.B. erklärt. Hier findest du den Standard, der festlegt, wie eine Gleitkommazahl dargestellt wird, der auch nochmal recht viel erklärt.

Viele Werte im Computer werden aber auch mit ganzen Zahlen dargestellt. Der Farbwert eines 24-Bit-RGB-Pixels z.B. hat einen Rotwert zwischen 0 und 255, einen Grünwert zwischen 0 und 255 und einen Blauwert zwischen 0 und 255. Zusammen ergibt sich dann die Farbe. Es reichen exakt 8 Bit pro Kanal ("Farbe") aus, also insgesamt 24 Bit (Man nimmt trotzdem 32 Bit, weil 32 eine Zweierpotenz ist, damit lassen sich die Speicheradressen dann leichter berechnen).
Früher waren mal 16 Bit Standard (Rot: 5 Bit, Grün: 6 Bit, Blau: 5 Bit) mittlerweile geht der Trend eher zu HDR10+ und anderen Standard mit mehr als 32 Bit.

Das hat aber alles nichts mit FP16 zutun. Wirklich rein garnichts. Eine Grafikkarte berechnet halt sehr sehr viel Zeug, um dann am Ende einen Farbwert rauszukriegen. Und sehr viele von den Berechnungen sind Gleitkommaberechnungen. Und einige davon kann man vielleicht mit halber Genauigkeit (FP16) durchführen, ohne, dass das am Ende irgendwelche Nachteile hat. Es ist aber nicht so, dass man mit FP16 nur noch 16-Bit Farbtiefe hat. Das hat einfach nichts miteinander zutun. Ich kann auch Berechnungen mit FP64 machen (doppelte Genauigkeit). Hat aber immer noch nichts mit der Farbtiefe zutun.
 
@Mcr-King

dein "chiplet" hat nix mit dual gpu zutun.

das was du beschreibst, ist die zukunft für die nächsten jahre. das ist ja aber auch nun wirklich nicht mehr neu.

schon der 68030 von motorola hatte 2 verschiedene ram "controller" um die harvard architektur realisieren zu können. über den 68040 wollen wir gar nicht reden. das ist fast 30 jahre her.

die north bridge und south bridge haben halt mehr oder weniger ihre aufgabe verloren. jetzt kommt die neue "generation"

der ram controller von amd kann von ddr3 bis zu hbm alles. natürlich ist das genial.

trotzdem sollte man verstehen, die reine leistung kommt vom "haupt-chip". die anbindung ist da zwar nice to have, aber egal, wenn du nicht genug "bums" hast.

kein mensch brauch 255er reifen auf einem 55ps corsa :evillol:

das, was du beschreibst werden wir wohl erleben. den namen müssen wir wohl noch suchen...

mfg
Ergänzung ()

Web-Schecki schrieb:
FP16 bezeichnet Gleitkommazahlen mit 16 Bit.
schön, dass wir uns hier einig sind....

Web-Schecki schrieb:
Es reichen exakt 8 Bit pro Kanal ("Farbe") aus, also insgesamt 24 Bit (Man nimmt trotzdem 32 Bit, weil 32 eine Zweierpotenz ist, damit lassen sich die Speicheradressen dann leichter berechnen).

das versuchte ich zu erklären, als ich meinte, ati karten hatten damals 24bit interne genauigkeit. die damen und herren müssen damals genau so schlau gewesen sein, wie du. :evillol:


Web-Schecki schrieb:
geht der Trend eher zu HDR10+ und anderen Standard mit mehr als 32 Bit.

ich hörte, 64bit sind nichts neues mehr, evtl. bei "farben" ^^


Web-Schecki schrieb:
Das hat aber alles nichts mit FP16 zutun. Wirklich rein garnichts.

ich versuche es noch einmal für dummies...floating point 32bit und 32bit farb ADRESSRAUM sind tatsächlich zu vergleichen......

jetzt ist dann aber auch genug. :heilig:
 
Zuletzt bearbeitet:
Würde ich nicht mal sagen mache heute Abend dazu ein test wenn ich dazu komme okay.

@SchwertSchild

Firmen teure klaro hatte Schon NVs und Intel AMD alles sogar PowerVR und Kryo2 drin. 😉

Nur wenn dir 3GB reichen wie du behauptest warum dann keine GTX1060 mh ach ja der neue Decoder warte der ist der selbe.

Genau wie wenn ich jetzt gleich sofort kaufe zahle ich fett Aufpreis und die Händler machen dass immer und vielleicht bleibt die Jarte sogar dadurch bei dem Preis.

Wie bei Handys die Leute sind selber daran schuld dass die so Teuer sind auch bei GPUs so.

Oder Games und und. 😉

Wie gesagt die GTX1060 3GB wäre doch besser was Leistung angeht.

Ich vergaß NV Fanboys kaufen immer dass neueste. 😉

Wie gesagt ich bin der Meinung NV hat die GTX16er gebracht weil sie selbst nicht wirklich an RT glauben.

Sorry entweder ganz oder gar nicht meine Meinung dazu.
 
Mcr-King schrieb:
Also die GTX1650 und allgemein die GTX16er Reihe finde ich total deplatziert Sorry entweder RTX und DLSS oder gar nicht.

Ja das finde ich auch. Was soll dieser Mist denn überhaupt noch? Raytracing ist tatsächlich schon in aller Munde jetzt. Wenn man jetzt eine Grafikkarte ohne dem kauft, fühlt man sich ja gefrotzelt.

Man könnte natürlich behaupten, dass das (dieser Hype) erst richtig damit begonnen hat, als Nvidia das Raytracing für Pascal freigeschalten hat, denn dort haben alle GTX1060,1070,1080 Besitzer mal richtig ausprobieren können.

Aber hier schon der nächste lächerliche Punkt: Nehmen wir an Nvidia war sich nicht sicher wie das Raytracing aufgenommen wird - warum zum Geier haben sie denn solange gewartet um den Treiber für Pascal zu veröffentlichen?? Den hätten sie schon vor 6 Monaten veröffentlichen können. Und mit dem daraus folgenden Hype hätten sie gesehen "wir können eigentlich schon voll auf RTX Karten umstellen". Damit hätte man locker eine RTX 2050 (mit einer Basis von 1024 Shadercores, sowie RT und Tensorcores) machen können. Damit wäre dann auch jegliche GTX1650/Ti/1660/Ti überflüssig gewesen.

Aber nee - stattdessen wird alles unerträglich lange hinausgezögert, und dann irgendein Mischmasch verkauft, wo der eine Teil überteuert verkauft wird, und beim anderen Teil man das Gefühl hat, es dient nur noch der Resteverwertung bzw. Verschrottung...
 
[wege]mini schrieb:
das versuchte ich zu erklären, als ich meinte, ati karten hatten damals 24bit interne genauigkeit. die damen und herren müssen damals genau so schlau gewesen sein, wie du. :evillol:

ich hörte, 64bit sind nichts neues mehr, evtl. bei "farben" ^^

Ja, früher waren halt mal 16 Bit Farbtiefe Standard und irgendwann ging man dann mal hoch. Und ja, dann ändert sich der Rechenaufwand. Hat mit FP16 vs FP32 nichts zutun.
64-Bit Farbtiefe wäre schon ein bisschen krass für Grafikkarten. HDR10+ benutzt glaub ich 36. Jedes weitere Bit erhöht ja die Anzahl der Farben um den Faktor 2.

[wege]mini schrieb:
ich versuche es noch einmal für dummies...floating point 32bit und 32bit farb ADRESSRAUM sind tatsächlich zu vergleichen......

Was hat der Adressraum damit zutun? Gar nichts. Der Adressraum bleibt gleich, ob ich nun mit FP16, FP32, FP64 oder INT32 oder wasauchimmer rechne. Und es gibt keinen Farbadressraum.
Aber sehr geil, dass du "für dummies" schreibst und dann wieder nur Unfug kommt. Vielleicht mal lieber ein bisschen zurückhalten, wenn man keinen Plan hat, wovon man spricht.
 
Benji21 schrieb:
Du trollst doch, oder? :freak: Ich meine: das kann man sich ja direkt nen Knüppel zwischen die Beine hauen und das für vielleicht 40 Watt die eh nur bei Bedarf anfallen... mit nem Tablet würdest du noch mehr Strom sparen bzw. nem Notebook und SSD.
Ich bin Programmierer, habe mehrere Monitore und zocke. 3x darfst du raten wie viele Stunden der PC läuft. Ein Notebook ist sparsamer, aber lauter. Und dazu ist er in der Leistungsklasse teuer. Dazu kommt, dass die Akkus ständig hinüber sind und nach x Jahren kein ordentlicher und bezahlbarer Ersatz zur Verfügung steht.

Und keine Ahnung was du mit Knüppel meinst. Ich habe einen i5-7600K und zusammen mit der GPU kann ich alles spielen, was mich interessiert. Und sowohl CPU als auch GPU laufen voll passiv. Nur das Netzteil kann theoretisch anspringen, tut es aber nur bei sehr langen Gaming-Sessions.

Sollte die 1650 Ti auch passiv kommen, würde ich die GPU dagegen ersetzen. Eine AMD GPU bekäme ich niemals passiv gekühlt.
 
Web-Schecki schrieb:
Was hat der Adressraum damit zutun?


also, hier sind wir bei takt und leistung...

wenn du einen 4bit chip hast, kannst du bei 1000000ghz maximal die zahl 1111 berechnen. das sind gerade mal 15 im dezimal system....

nicht wirklich viel....

bei 16bit hast du dann 65553 (wenn man die probleme mit 1024 usw. mal weg lässt).

bei 32bit ist man schon bei 68mio.

dieser unterschied ist nicht von der hand zu weisen. man möchte aber auch nicht darüber nach denken, wenn man 32 stellen mit jeweils 10 zahlen hätte^^

deine ergebnisse sind also wahlweise mit 1/65 tausendstel genauigkeit oder mit 1/68 millionen.

bei 64bit explodiert das ganze dann. zu mindest hört bei mir das realistische vorstellungsvermögen von diesen zahlen auf.

der "adressraum" sagt dir, wie "schlau" dein prozessor pro takt ist. du kannst auch einen 16bit prozessor zig mal rechnen lassen, um 32 bit zu erziehlen.

möglicher weise ergibt es aber auch keinen sinn, mit dir darüber zu reden.

ich versuche halt einfach den unterschied, zwischen 16bit und 32bit im BINÄR system zu erklären und warum es nicht schlecht wäre, die hier brach liegende leistung zu benutzen und oder einfach mal den nächsten schritt zu gehen.....

das binär system ist uralt. wäre schön, wenn da mal was im informatik bereich gehen würde.

am ende, hat die gtx1650 im fp16 sehr gute leistung und mich interessiert einfach nur, welche zukünftigen games darauf aufbauen. niemand würde das bauen, wenn es niemand wollen würde.

mfg

jeder darf es sich selbst überlegen....16bit im binär system entsprechen 4 "bit" im hexadezimal system. ffff=65535=1111.1111.1111.1111 :D ← die grenzen existieren mMn nur in deinem kopf.
 
Zuletzt bearbeitet:
Zurück
Oben