News Verwirrend: Dell nennt GeForce RTX 2050 für Notebook

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
13.338
  • Gefällt mir
Reaktionen: Mcr-King
und dann noch eine rtx...hoffentlich ist es eine grosser chip mit vielen rt cores.
 
oder die 2050 wird tensor cores nutzen für DLSS was bei solch einer kleinen Karte sehr sinnvoll ist um Performance zu sparen.

Thunderbolt aber nur bei 2060 ist mal wieder so dämlich..
 
  • Gefällt mir
Reaktionen: Mcr-King und -WATC-
2050...und RT? HA,.... never.
Wäre ja ne Diashow.... 24 fps halbiert auf 12 für den extremem cinematic Effect liebhaber.
 
  • Gefällt mir
Reaktionen: M4ttX, CMDCake, onkel-foehn und 3 andere
Wie... Jetzt vielleicht doch noch eine RTX 2050? Hab vor kurzem noch gedacht, dass es bei der gtx 1650 bleiben würde (mit denselben Spezifikationen ohne RT-/Tensorcores). Da soll sich noch wer auskennen...
Ergänzung ()

W0lfenstein schrieb:
2050...und RT? HA,.... never.
Wäre ja ne Diashow.... 24 fps halbiert auf 12 für den extremem cinematic Effect liebhaber.

Ich bin mir da nicht sicher. Für die Zielgruppe mit FHD AUflösung schafft die RTX 2060 ja auch meist noch 60fps mit Raytracing. Grob geschätzt wären das dann bei der RTX 2050 vielleicht immer noch 30fps. Das wäre eigentlich ganz in Ordnung?

Wobei ich anmerken muss, es ist verdammt schwer Tests zu finden mit der RTX 2060 und Einstellungen auf FHD und Raytracing On/Off Vergleich. Hie und da findet man mal einen Wert, aber kaum einen richtig gscheiten Test, aus dem man weitere Schlüsse ziehen kann. Versteh' ich nicht...
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Sennox und dampflokfreund
GTX, RTX, 2060, 1660, 1050, 1150, 2050, ti, etc, pp

Was zur Hölle veranstaltet nVidia da?
 
  • Gefällt mir
Reaktionen: Drainward, TheGreatMM, Herr Melone und 12 andere
die hauen jetzt alles ausm Lager was nicht bei 3 aufm Baum ist.
 
  • Gefällt mir
Reaktionen: Herr Melone, aklaa, onkel-foehn und 2 andere
NVidia... NVidia... war das nicht der Laden wo die "neue" MX250 offiziell sogar langsamer ist als die alte MX150?

MX250 - GeForce Performance Score -> Up to 3.5X
MX150 - GeForce Performance Score -> Up to 4X
Fußnote: GeForce Performance Score based on relative game performance against UHD 620 = 1.0x.
 
  • Gefällt mir
Reaktionen: Herr Melone, Stefan1200, onkel-foehn und 3 andere
Ich bin nicht überrascht, wenn die Einsteiger RTX im Laptop weniger Leistung hat als im Desktop. Das ist auch notwendig, da die Stromverbrauch nicht so hoch sein kann.
Da ist es doch besser, wenn die Nummerierung ehrlich ist und nicht suggeriert, man habe die selbe Leistung.
Was soll das, wenn man Nvidia vorwirft, unehrlich zu sein und wenn sie ehrlich sind, wird auch gemeckert?! Soll Nvidia aus Prinzip immer schummeln?
Berufsmeckerern kann man es nie recht machen.
 
  • Gefällt mir
Reaktionen: estros und -Ps-Y-cO-
Naja mit Schummellei kenne sie sich aus und warte kurz habe sogar Specs zur RTX2050.
 
@0xffffffff
Das mit den Performance-Scores bei Nvidia ist ein bisschen tricky. Man weiß nicht inwieweit die generationsübergreifend vergleichbar sind. Bei der MX250 wird konkrete CPU genannt, was war es bei MX150? Andere Plattform, andere Treiber und dann vllt noch ein möglicher Einfluss der CPU-Leistung beim Benchmark? Welcher Benchmark ist das überhaupt?

Für mich zu viele Unklarheiten, um das direkt miteinander zu vergleichen.

Fußnote zu MX250 schrieb:
1 - Game performance score calculated based on comparison to (Whiskey Lake) UHD620 on Intel i5-8265U = 1.0x
Fußnote zu MX150 schrieb:
1 - GeForce Performance Score based on relative game performance against UHD 620 = 1.0x.
 
MX150 und MX250 beides Pascal der selbe Chip Problem ist nur der OEM kann machen was er will damit.

Deswegen gibt es grade in diesem Segment so viel unterschied was Leistung betritt. Die können gerne mal über 40% liegen was eigentlich schon fast Betrug ist, da nirgendwo der OEM-Mafia gesagt wird dass sie klar angeben müssen was verbaut ist. Tja EU halt läuft bei denen wie geschmiert.
 
Dacht' ichs mir doch - TU116/117 für kleine (RTX-)Karten auf Turing-Basis und jene für Mobile RTX. Denn genau diese fehlen bislang noch komplett, da wird in jedem Fall was kommen.
Angeblich keine RT/Tensor-Cores verbaut, bin ich mir nicht so sicher. Vielleicht eher deaktiviert.
Würde ja Sinn machen, wenn auf Basis der TU11x RTX-Grafik angeboten werden soll.
 
Ach Leute, ist ist ein Druckfehler. Es ist natürlich eine GTX1650 gemeint.
 
  • Gefällt mir
Reaktionen: TheGreatMM
Wie wärs mit 1550? Ist noch frei.
 
  • Gefällt mir
Reaktionen: Sennox, onkel-foehn und Mcr-King
Wäre gut, wenn da mal klar gesagt wird was wirklich kommt. Da gleich mehrere Computerzeitschriften diese Information aufgegriffen und rausposaunt haben, besteht vielleicht eine klitzekleine Chance, dass Nvidia eine Klarstellung abgibt.
 
Eine RTX2050 4GB für nur 229€. Nvidia ist sowas zuzumuten.
 
  • Gefällt mir
Reaktionen: Sennox und Mcr-King
229$ in Deutschland dann 259€ und RTX on @800x600 auf der 15" Röhre 🤣
 
das Gerät ist jetzt mal in aller Munde - mal schauen was es dann tatsächlich wird :cool_alt:
 
MichaG schrieb:
Für mich zu viele Unklarheiten, um das direkt miteinander zu vergleichen.

NVidia vergleicht höchstpersönlich, beides mal gegen die "UHD 610". Und dort steht offiziell: Die neuere GPU ist langsamer als die alte, verglichen mit der selben GPU von Intel. Warum soll ich mir selbst Gründe suchen, dass die neuere Generation vielleicht doch nicht langsamer ist?

Wenn die Daten zu der Aussage nicht genauer spezifiziert werden stütze ich mich halt auf das, was NVidia selbst offiziell aussagt. Außerdem wäre stark verwundert wenn Sie keinen Benchmark genutzt haben bei dem man gut darsteht. Und zuguterletzt wird ja auch nur von "up to" gesprochen... 🤷‍♂️

Finde es schade, dass es so stagniert oder teilweise rückwärts geht.
 
  • Gefällt mir
Reaktionen: D708 und Sennox
Zurück
Oben