Eine 5070 wird zu einer 5080, Nvidia versucht es nochmal!

Schönes Beispiel. Jeden Tag werden hunderte Grafikkarten verkauft, aber nur eine Handvoll Käufer sucht hier um Rat. Aber es gibt natürlich von manchen hier den Rückschluss, dass die meisten Käufer keine Ahnung haben.

Man entdecke den Fehler.
 
  • Gefällt mir
Reaktionen: kachiri
@SuperHeinz deine Beiträge lesen sich irgendwie, als würdest du dich persönlich angegriffen fühlen^^

Ich wollte an keiner Stelle suggerieren, dass hier irgendeine Gruppe besser oder schlechter ist als die Andere. Und das habe ich auch von sonst niemanden hier so verstanden. Ist auch überhaupt nicht das Thema hier.

Eigentlich geht es um eine RTX xx80 mit den specs einer RTX xx70.
Ist zumindest eine unerwartete Bezeichnung für diese Grafikkarte. Vielleicht können wir uns ja darauf einigen :D
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Das ist doch nur eine rein subjektive, individuelle Einschätzung, dass Nvidia die Spezifikationen der neuen Grafikkarten nicht den Spezifikationen entsprechen lässt, die manche Leute für das jeweilige Modell sehen wollen und daher auch erwarten.

Doch es ist und bleibt einzig die Sache von Nvidia, wie sie ihre neuen Modelle benennen und wie sie diese eingruppieren. Wenn sich manch ein Kunde davon getäuscht fühlt, dann ist das sein Problem und nicht das von Nvidia. Die meisten stellen sich eben auf was Neues ein und kaufen nach Geldbeutel und anhand der technischen Daten, weil sie wissen, welche System-Anforderungen ihre Games besitzen.

Die Modell-Namen sind doch Schall und Rauch, ist doch völlig egal, wie die heißen.
 
Ich frage mich ja immer, woran macht man eigentlich fest, dass eine x80 doch eigentlich eine x70 ist? Das SI? Die Anzahl der Recheneinheiten? Die Speicherausstattung? Wenn ich mir mal die letzten Generationen anschaue (40, 30, 20), dann gab es, obwohl NV "hochgelabelt" hat, trotzdem ein enormes Upgrade für beispielsweise die x70.
Nur das SI ist geschrumpft.
Nehmen wir die Die-Fläche als Maßstab? Nun ja... War halt ein riesiger Sprung von Samsung 8nm zu TSMC N4. Das hat man halt AUCH genutzt, um nicht nur die Anzahl der Recheneinheiten zu erhöhen, sondern halt auch um ALLE Chips kleiner zu machen...

Und am Ende - sag ich seit zwei Jahren - entscheidet halt der Hersteller, wie er sein Produkt benennt. Wie jetzt auch wieder mehrfach erwähnt: Es soll "nachvollziehbar" sein. Heißt: 4080 16 GB und 4080 12 GB ist doof, weil man nicht auf die Idee kommen würde, das weniger VRAM auch (deutlich) weniger Leistung bedeutet.
Genauso wie man das ganze 3050er Lineup bemängeln darf.
Aber solange aus der Bezeichnung hervorgeht, dass Karte X langsamer ist als Y, dann ist doch alles Butter.
 
kachiri schrieb:
Ich frage mich ja immer, woran macht man eigentlich fest, dass eine x80 doch eigentlich eine x70 ist
Bit bus, SM menge, chipgrösse in relation zur vorgen.

eine 4070 ist eigentlich eine 4060. eine 4070 ist das heuite was 2017 eine Gtx 1060 war für die hälfte des preises so sehr nehmen uns die burschen aus.

4060 das gleiche spiel ist im prinzip die 4050.

4070 super wäre das was die normale 4070 wäre wobei der 60er bit bus bleibt aber ada hat dafür gewaltig mehr an cache was aber das nicht ausgleichen kann aber viel billiger für nvidia ist.

eigentlich ist die 4080 eine 70 er Karte laut specs. Aber die 80er hatten sich immer den 104er chip geteilt mit der 70er karte. da die 4080 einen 103er hat...ist sie besonders.

immerhin hatte nvidia auch versuchte eine 4080 12gb ala 4070ti zu bringen. das wäre dann eine 80er karte mit 60ti max specs in der realität.

aber das hängt auch damit zusammen das amd absolut keine Konkurrenz mehr ist.

Aber nvidia wird das weiter versuchen ala 4080 12gb siehe rtx 5070 rumors und wenn die 5070 mit dem besten von amd konkurrieren kann, wird blackwell für alle außer 90 karten käufer extrem langweilig und scam behaftet.
 
belive schrieb:
Bit bus, SM menge, chipgrösse in relation zur vorgen.
Sorry, aber im Grunde genommen hat nur die Chipgröße abgenommen und halt das SI mit Ausnahme der 4090. Die Speicherbrandbreite ist trotzdem im fast gesamten Lineup gestiegen. Einzig die 60er Karte sind hier eine Ausnahme - die wurden in der Tat enorm kastriert, weil die 4060 Ti nicht mehr wie noch bei Ampere auf denselben Chip aufbaut, wie die 70er Karte. Und damit halt auch die 4060, die damit auch einen Chip weiter runtergewandert ist. Ein Chip, der halt eher zu einer 50er Karte passt...
Deshalb gibt es hier im direkten Vergleich halt auch nicht diese "Zugewinne" in der Leistung und die 4060 Ti ist ziemlich nah bei einer 3060 Ti wie auch die 4060 sich schwer gegen die 3060 macht. Zumindest solange man die exklusiven Features von Ada nicht nutzt.

Darüber ist müßig zu reden.

Auf der anderen Seite muss man halt auch sehen, warum NV das macht oder machen kann. Wenn NV sich an "deinem" Modell gehalten hätte. Inklusive entsprechender Preise, wäre AMD doch am Arsch gewesen, um es mal so auszudrücken...

Eine 4070 als 4060 Ti für 439 Euro UVP?
Eine 4060 Ti entsprechend als 4060 für 329 Euro UVP?
Eine 4070 Super direkt zu Release von Ada als 4070 für 609 Euro UVP?

Bye Bye AMD. Wirklich Bye Bye. Wie hätte AMD hier noch die 489 Euro für die 7700 XT oder die 549 Euro für die 7800 XT rechtfertigen sollen? Die 7700 XT ist 15% von einer 4070 (also nach deinem Schema eine 4060 Ti) weg. Und die wäre günstiger gewesen. Die 7800 XT ist zwar noch immer billiger als eine 4070, aber halt auch langsamer.
AMD hätte hier ordentlich nach unten korrigieren müssen.

Über das Duell 4060 vs 7600 (XT) reden wir hier am besten gar nicht. Die 299 Euro für eine 7600 wären bei einen enormen Rückstand von um die 30% bei nur 10% Mehrkosten der wahre Scam von AMD gewesen.

Was wäre bei AMD noch geblieben? Außer mehr VRAM insbesondere aber der oberen Mittelklasse? Nüscht.

Ah stimmt. AMD hätte reagieren müssen :D
Soweit ich weiß, ist man ja lange davon ausgegangen, dass es gar keine 7700 XT/7800 XT geben wird und man die Mittelklasse komplett ausspart. Als man dann das LU von NV gesehen hat, gab es dann doch die Lücke ;)

Und trotz des bösen Scam Lineup von NV muss man sich bei AMD damit retten, dass man ja mehr VRAM und häufig mehr oder gleich viel Raster-Leistung für aber etwas weniger Geld bekommt. Da wird dann alles ausgeklammert, was irgendwie nicht so toll ist. Nämlich der komplette Rest.

Wie gesagt. Alles ab der 4070 gewinnt zum Vorgänger trotzdem um die 20-25% mindestens. Ist nicht viel aber zusammen mit der enormen Effizienzsteigerung schon ein ganz nettes Upgrade.
Nur die zwei günstigsten Karten sind so ein wenig die Bauernopfer. Da gibt es dann nur die enorme Effizienzsteigerung.
 
DocWindows schrieb:
Dann kann man nämlich seine Settings so anpassen, dass man die neuesten Spiele auch mit einem Modell unterhalb der Speerspitze spielen kann. Und zwar sehr gut.
Ist halt eine Frage des Anspruchs, was "sehr gut" bedeutet.

Nicht jedes Spiel lässt sich über die Optionen stark beeinflussen oder sieht dann nicht mehr hübsch aus.
Das "Ultra" meist keine gute Wahl ist ist klar, aber das ist ja höchst speziell je Spiel und man kann nicht einfach sagen, dass man Spiele immer gut zum laufen bekommt.

Gucke ich die letzten Spiele Tests von CB an, dann ist da ein Frostpunk 2, wo eine 4060 Ti in 1440p+DLSS Quality auf 40 FPS kommt.

Habe ich selbst nur an meinem Laptop mit 4060 und 4K+DLSS Performance getestet....Da bin ich bei 20 FPS und kann das mit absoluten minimum Settings auf 40 FPS steigern...immerhin 100% Leistungszuwachs, aber da fallen viele Grafikeffekte komplett weg. FrameGen soll man laut CB nutzen, aber es ist ausgegraut.

SW Outlaws kommt mit einer 7900GS in 1440p+FSR Balanced auf träge 29FPS....und weiter unten steht, dass man mit gesenkten Details so 50-60% gewinnt....das macht dann ca. 45 FPS.
Gut finde ich das noch nicht....und mein nächster Monitor wird 4K sein, da steigen die Anforderungen weiter.

BM Wukon lässt sich laut CB um 70-80% steigern....nicht schlecht.....aber die7900GS macht in 1080p+FSR Quality nur 15 FPS...und würde dann auf 26 FPS kommen....in 1080p und in 1440p+Balanced wird sie gar nicht erst aufgeführt. Da startet eine 4070 mit 37 FPS....und in 4K+Performance liegt sie bei 26 FPS.
Was willst du da mit Settings reißen?
kachiri schrieb:
Wenn es dir zu teuer ist, kauf dir halt keine Grafikkarte, wenn es dir eigentlich zu teuer ist.
Warum beziehst du das auf mich persönlich?
Ich dachte, dass wir hier eine Diskussion über die allgemeine Marktsituation führen.


Aber wenn du es wissen möchtest...ich habe mir schon länger keine Desktop Grafikkarte gekauft, da ich Spiele meist ein paar Jahre später spiele und neue Hardware eher ein Hobby-Bastelprojekt darstellt.
Meine Käufe sind fast nie aus Preis-/Leistungssicht sinnvoll sondern fast immer als Hobby gedacht...Technische Neugierde steht über bester Leistung.

Die letzten beiden Desktop Karten waren eine Vega64 LC und eine Radeon VII(umgebaut auf Wasserkühlung).
Letzten Winter wurde dann der uralte Laptop durch eine 13700H+RTX4060 Kombi ersetzt, aber eher eingeschränkt zum Spielen, da das 4K Display die GPU meist überfordert und die Kühlung schlecht ist....auch hier eher ein Bastelprojekt, wo ich versuche die schlechte Kühlung zu optimieren und mich E-cores, DLSS und RT interessiert haben.

Auch wenn die Radeon VII sich mit einer Desktop 4060 messen kann, habe ich einige Spiele, die ich auf Eis gelegt habe, da mir das optimieren der Grafiksettings nicht ausgereicht hat um mit annehmbarem Input Lag zu spielen.
A Plague Tale Requirem ist in 1440p unscharf und ich komme kaum über 40 FPS mit optimierten Settings. FSR als Mod macht es deutlich besser aber nicht gut.

Im Moment spiele ich den ersten Kindome Come Deliverance Teil nochmal und die Grafikoptionen bieten wenig spielraum sonst gibt es viel Aufpoppen....es läuft ganz ordentlich , aber optimal ist anders.


Death Stranding, Hitman 2, Cyberpunk 2077, Frostpunk 2, Metro, The Witcher 3 Complete...das wären so Spiele, die mir einfallen, die ich nicht auf ein für mich gewünschtesNiveau optimiert bekomme...und das sind nicht unbedingt neueste Spiele..nur Spiele die ich gerne demnächst spielen würde.

Sich eine Konsole zu kaufen ist zwar günstig, aber kein Ersatz für einen Spiele PC.
Deutlich schlechtere Grafiksettings die teilweise unter low liegen...oft 30/60 FPS angepeilt und damit verbunden ein schlechter Input Lag....jeder wie er mag, aber manchen Leuten scheint das nicht zu reichen, sonst hätten wir keinen Markt für Spiele Grafikkarten, über den wir diskutieren könnten.

Natürlich kann keiner von uns die großen Hardwarehersteller "zwingen" uns faire Deals, sinnvolle Namen usw. zu geben, aber eine gewisse Macht haben die Foren und Medien schon.
Schlechte Publicity beeinflusst durchaus die Aktienkurse und auch das Kaufverhalten von ein paar Leuten. Das ist auch einem Aktienunternehmen nicht völlig egal.
Das Nvidia alle GPUs die sie produzieren auch verkauft bekommt ist klar....das Geschäft wird weniger von den Privatleuten dominiert, aber die öffentliche Wahrnehmung durchaus.
Bei der 4080 12GB haben sie auch eingelenkt und sollten sich die Gerüchte bewahrheiten, sehe ich keinen Nachteil in einem Verurteilen solcher Geschäftsentscheidungen.

Wenn ein berechtigter Aufschrei etwas bringt, haben die Privatkunden etwas davon und wenn nicht, haben sie auch nichts verloren.
 
Zuletzt bearbeitet:
Baal Netbeck schrieb:
Warum beziehst du das auf mich persönlich?
Weil du es geschrieben hast. Ich finde diese Argumentation muss man gar nicht aufgreifen. Ich möchte ein Smartphone mit iOS, als ich bin gezwungen ein iPhone zu kaufen. Nein, bin ich nicht. Niemand zwingt mich dazu, ein iPhone zu kaufen. ICH treffe die Entscheidung, dass ICH iOS haben möchte, also kaufe ich aus freien Stücken ein iPhone, weil es das einzige Smartphone mit iOS ist.
Ich habe aber auch die Wahl, einfach eines der vielen Android-Smartphones zu kaufen. Oder gar keines. Die Wahl liegt bei mir. Apple zwingt mich nicht zu iOS ;)

Apple ist ein super Beispiel. Ich möchte eine Apple Watch, habe aber kein iPhone. In der Familie besitzt auch keine andere Person ein iPhone, also werde ich gezwungen, mir ein iPhone zu kaufen. Ne... eben nicht. ICH treffe die Entscheidung, dass ich eine Apple Watch möchte - das ist halt an eine Bedingung geknüpft, da die Apple Watch nun einmal ein "Accessoire" zum iPhone ist.

Ich könnte aber auch einfach irgendeine andere Smartwatch kaufen - oder gar keine. Freie Entscheidung. Nichts Zwang.

Es gibt keine Zwänge. Nicht einmal der Rundfunkbeitrag ist "Zwang". Ich werde nicht gezwungen in Deutschland zu leben. Wenn ich in Deutschland lebe, gibt es halt Rechte und Pflichten und eine gesetzlich geregelte Pflicht ist halt der Rundfunkbeitrag zur gemeinschaftlichen Sicherung des öffentlich-rechtlichen Rundfunks und da ist es halt absolut egal, ob ich davon direkt profitiere, weil ich keine ÖRR konsumiere...
Ich sage ja auch nicht, dass ich Beiträge zu den Pflichtversicherungen zahle und beispielsweise nichts von der Rentenversicherung habe, weil das was ich jetzt einzahle, bekomme ich in Zukunft ja nicht wieder (weil es quasi an die jetzigen Rentner direkt durchgereicht wird)
Oder das ich als kerngesunde Person genauso viel in die Krankenversicherung einzahle, wie eine chronisch kranke Person mit gleichen Verdienstniveau...

Sicher auch "Zwang". So viele Zwänge. Böse.

Ich werde auch zur Arbeit gezwungen, weil ich sonst kein Geld bekomme. Wobei. Stimmt ja gar nicht. Gibt ja steuerfinanzierte Sozialleistungen mit ständig gerügten Sanktionsmaßnahmen für Menschen, die sich bewusst dem Arbeitsmarkt entziehen :(

Zurück zu den Grafikkarten: Ich habe die Wahl zwischen mehr Geld ausgeben und dafür mehr Details und mehr FPS oder weniger Geld ausgeben und dafür weniger Details und weniger FPS, geringere Auflösung, Blah-Blih-Blub. Oder halt die Wahl, nichts davon.
Oder aber... du hast auch eine tolle Wahl getroffen! Du spielst die Spiele einfach irgendwann, wenn die notwendige Hardware günstiger geworden ist :)

Ich habe eine Allergie gegen das Wort "Zwang".
 
  • Gefällt mir
Reaktionen: Nihil Baxxter
kachiri schrieb:
Ich habe eine Allergie gegen das Wort "Zwang".
Das habe ich ja auch nicht verwendet,

Ich hätte es sicherlich mit mehr Konjunktiv und mehr Einschränkungen formulieren können aber die meisten werden verstehen, was mein Punkt war....Wenn du dich entscheidest, dass du Geld dafür ausgeben möchtest um bestimmte neue Spiele mit einem gehobenen Anspruch an Auflösung, Grafikqualität und Input Lag zu spielen.....dann hast du keine Alternative als die jetzt schon teuren Nvidia Oberklasse-Grafikkarten, die in der nächsten Generation eventuell noch teurer werden, oder in der gleichen Namensklasse stärker beschnitten sein werden.

Wenn niemand auf das schlechtere Angebot reagiert, wird sich eher Nichts zum besseren wenden....so besteht zumindest die Chance, dass es nicht noch schlechter wird.

Auch das "nicht kaufen" kann natürlich ein Signal seinaber (Nvidia verkauft eh jede GPU).....besser wäre es ein Konkurrenzprodukt zu kaufen.
Das gibt es aber eben nicht in dieser Leistung.
 
Xiaolong schrieb:
Das ist so wie 1 kHz Monitore...
Gibts die eig schon? x)
Das hz rennen ist auch an mir vorbeigewandert. Bei mir war 144hz der letzte standard.
hab mal 165 und 240 gesehen oder news zu 500hz.
Kann echt nicht mehr lange dauern bis jemand FHD in CS2 mit 1000FPS hat und trotzdem nur silber ist :)
 
Zurück
Oben