News Nvidia zur GeForce RTX 4060: Grafikkarte bringt 13 mal mehr Leistung* und „Less Power“

Replay86 schrieb:
Muss man sich mal auf der Zunge zergehen lassen.
Nvidia holt eine 7 Jahre alte Grafikkarte aus ihrem Sortiment und stellt diese als Vergleich dar zur 4060.
Wenn ihre Zielgruppe Steam Spieler sind, macht das in gewissen teilen sogar Sinn. Ob man die Nutzer einer 1050 Ti / 1060 oder 1650 allerdings mit einer "hochmodernen" 300 EUR Karte locken kann, die nur mit 8 Lanes angebunden ist, wird sich zeigen.... Die 3060er werden so oder so nicht auf die 4060 umsteigen.

Ich kann nvidias Gedankengang verstehen und nachvollziehen. Auch die Preisgestaltung. Ob ich das gut finde? Das müssen die praxisnahen(!) Tests zeigen. Es ist nun mal ein gewinnorientiertes Unternehmen und kein Wohlfahrtsverein. Leider habe ich keine Aktien und aktuell sind sie mir zu teuer.
 
Fallout667 schrieb:
Ich sagte doch ich warte auf Tests. Wenn es nur paar % werden dann flopp. Und wenn dann doch mehr werden (20-30%), dann wäre sie ok.
Nur du weißt ja scheinbar schon vor allen Tests das die Karte noch viel schlechter als schlecht ist.
3060 12gb vram
4060 8gb vram und noch nur 8 lanes, um im vram Limit so richtig zu Versagen.
Auf was willst du da noch warten?
Auch ohne Test ist der künstliche vram Mangel direkt ersichtlich.

Und in 2023 sind 8gb vram für einen Nachfolger (der 12gb hatte) einfach katastrophal / Müll/ Mist / Schrott what ever. Nicht mal in 1080p reicht die Karte durch die Bank.

Es sieht aus wie Scheisse (8gb)
Es riecht wie scheisse (8 lanes)
Dann wird es wohl auch scheisse sein.
 
  • Gefällt mir
Reaktionen: dayworker123, vti, M11E und 3 andere
DerkleineGrisu schrieb:
Haben sie schon mit der 970 gut bewiesen das sie "Clever" im Bereich Marketing sind.
Selbst Heute sind die Besitzer "Restlos" begeistet von der Leistung der Graka. das Nvidia damals den Kunden Belogen haben interesiert Heute keinen Mehr. Muss mich verbessern schon damals hat es die Nvidia Kunden kaum bis gar nicht interesiert.
Weil die Karte in meinem Usecase zu 100% funktionierte, deswegen war ich zufrieden und das alles damals für 280€ neu dank Aktion und Verkauf der 2 Gamebeilagen. Und da wusste ich schon um die 3,5 GB "Problematik".
 
TigerherzLXXXVI schrieb:
Am Ende wird das schlechte Marketing Nvidia so gut wie nicht schaden, denn der Otto-Normal-PC-Gamer wird sich selbstverständlich mit großem Stolz seine neue RTX 4060 holen.
Nenne mir doch mal die Gründe für die RX 7600. Mir fallen außer dem etwas geringeren Preis keine ein.
Die Nvidia Karte steht gegenüber der Konkurrenz gut da.
TigerherzLXXXVI schrieb:
Genau deswegen ist Nvidia auch Quasi-Monopolist geworden: auf Grund von technisch völlig unversierten Kunden, für die es allein um die Bekanntheitheit einer Marke geht.
Die technisch versierten Kunden schauen auf Bildqualität.
In Full HD ist DLSS FSR momentan meilenweit überlegen. Wenn der Speicher ausreicht bringt Frame Generation auch nochmal einen deutlichen Boost.
Ich habe aktuell eine Radeon RX 5700XT, davor war es eine HD 5870 2GB, davor eine HD 1950pro 256mb.
Ich bin von den Radeons nicht so begeistert wie ich es früher war, möchte aber ATi/AMD dennoch treu bleiben. Hoffentlich kommt 2024 wieder eine Top-Karte dann mit FSR3.
Syrato schrieb:
DLSS 3.0 hat für einige Spiele Vorteile, ich sehe den Mehrwert aber nicht. Diese mehr FPS reagieren nicht auf die Maus, können falsche Inhalte liefern usw. usf..
Im Prinzip reagiert das schon auf deine Mauseingabe, weil ein Frame dazwischen generiert wird. Eine Art Software-DPI.
Falsche Inhalte können damit nicht geliefert werden. Das Bild ist viel flüssiger. Die zusätzliche Latenz minimal.
Syrato schrieb:
Das darf jede Person für sich entscheiden.
Man sollte nicht grob falsche Dinge erzählen.

Syrato schrieb:
Ich habe es für mich, in verschiedenen Spielen, getestet. Für mich bringt DLSS 3.0 keinen Vorteil (in Shootern nur negativ und das bemesse ich schwerer als die positiven Effekte).
Ich habe es schon in Cyberpunk, Formel 1 und A Plaque Tale Reqiuem auf dem Rechner meines Sohnes probiert und ich war begeistert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: conglom-o
Syrato schrieb:
ICH habe es getestet und für MICH fühlt es sich in Shooter total falsch an. Du kannst gerne sagen, dass das in unabhängigen Tests so ist (verlink doch bitte mal einen), aber wenn es für MICH nicht passt ist das halt so.
Z.B. in MSFS2020 kann es helfen und wenn man mit DLSS 3.0 die FPS in einen angenehmen Bereich hochheben kann.
Gut das du mit deiner 4090 nicht sowas brauchst hab Manli gegoogelt dachte was das für ne Firma aus Hongkong? und tatsächlich haha dachte das reicht dann heisst die noch Gallardo wie der Lamborghini 😂

Aber Hauptsache ne 4090 🫡
 
Zuletzt bearbeitet:
[wege]mini schrieb:
Müsste das ck nicht ein g sein?



Wir kennen alle die Zukunft nur in Wahrscheinlichkeiten und kalkulieren, wie unser Glauben sich auch die tatsächliche Realität auswirken wird.

Wenn alle Hersteller so "zaubern" wie MS im Flighsimulator, ist es eine geile Technik, die Verkauft wird. Ähnlich wie Pixelshader 3.0 oder DX 12.

Wenn nicht, dann nicht.

Ich bleibe dabei, bis zu einer Klasse der RX580 lohnt sich das Upgrade und selbst bei einer 1060, sollte man mMn darüber nach denken.

Der geneigte Kunde, darf es natürlich anders sehen und die Tatsache, dass eine Konsole 550 Euro kostet, darf man natürlich auch nicht vergessen.

mfg
naja kommt ganz drauf an ,was man sich anschaut.Also ich habe die Xbox one s eben keine 550 € ausgeben müssen,sondern so um die 120 € rum.Die ist ja nun auch nicht so schlecht.Man darf eben nicht davon ausgehen das alle Konsolen so Teuer sind und dennoch saubere Leistung liefern.So ist das ja nicht.
 
conglom-o schrieb:
Ergo:
6650 XT = Scheiße.
7600 = Scheiße.

Okay, kann man so sehen - muss man aber nicht.
Klar musst halt die Regler stellen
 
Fallout667 schrieb:
Naja so viel billiger war die damals auch nicht. UVP war bei beiden 299 Dollar.

Und Zukunftssicher waren die 6GB damals auch nicht. Die 6GB waren hier im Forum einer der größten Kritikpunkte. Da haben viele lieber zur RX470 und RX480 mit 8GB gegriffen. Auch kamen damals die ersten Tests in denen gezeigt wurde das bei fehlenden RAM Spiele automatisch die Qualität runter drehten.

Die 2060 kam dann auch wieder mit nur 6GB.
So toll waren die 60er nie wirklich.
Thanks !

Zumal diese heilige Karte auch als 3GB Variante kam. Wo war das denn bitte "Zukunftssicher" ? 🤣
 
GERmaximus schrieb:
Es sieht aus wie Scheisse (8gb)
Es riecht wie scheisse (8 lanes)
Dann wird es wohl auch scheisse sein.
Wobei mich viel mehr die geringe Rohpower anwidert.
Features wie RT und DLSS3 machen ab einer 4070 non-Ti aufwärst Sinn aber nicht unterhalb also 4060 Ti und non-Ti, 4050...
Die Transistoren die bei einer 4060 Ti und non-Ti für eben diese RT-Cores und Tensor Cores drauf gehen, wären wesentlich sinnvoller in Rohpower angelegt gewesen.

Alles was NVidia bei 4060 Ti und non-Ti jetzt noch machen kann ist es extrem den Preis zu senken.

Ich hoffe inständig, dass die 7700 und 7800 von AMD Preis-Leistungskracher werden, damit NVidia in diesem Performance-Segment maximal an Kunden verliert.
 
conglom-o schrieb:
Ergo:
6650 XT = Scheiße.
7600 = Scheiße.

Hier wirbt amd wenigstens nicht mit 14 mal schneller und super duper gemache.
Und der Vorgänger hatte ebenfalls nicht 50% mehr Speicher.
, von 12gb der 3060 auf 8gb der 4060

Also die 4060/ti sind schon eine ganz spezielle Form von Kacke
 
Zuletzt bearbeitet:
BOBderBAGGER schrieb:
Ich muss Nvidia mein Geld nicht geben, und wenn man sich die verkaufszahlen der 4060ti 4070 ansieht bin ich nicht alleine. Da muss dann wohl Nvidia mit dealen.
Und stattdessen was kaufen ? AMD ? Die nahezu genauso teuer aber Feature-Incomplete sind ?

Gortha schrieb:
Ich hoffe inständig, dass die 7700 und 7800 von AMD Preis-Leistungskracher werden, damit NVidia in diesem Performance-Segment maximal an Kunden verliert.
Das wird leider nicht passieren. Bei RDNA2 hatte man eine gute Arch + viel bessere Fertigung im Rücken und war preislich absolut konkurrenzfähig. Und was war ? Wenige haben sich dazu bewegen lassen AMD zu kaufen.

Wird auch hier nicht so sein. Die könnten eine Vier-Lane Karte mit 4GB und 8 SM für 249€ anbieten und die Leute würdens ihnen aus den Händen reissen bevor sie AMD kaufen. Geredet wird immer viel und protestiert, am Ende knicken die Leute aber gerne wieder ein.
 
  • Gefällt mir
Reaktionen: M11E
GERmaximus schrieb:
Hier wirbt amd wenigstens nicht mit 14 mal schneller und super duper gemache.
Nach Deiner Logik trotzdem Scheiße. Und AMD kann damit nicht werben, weil sie es eben nicht geschissen kriegen mit der Technik (um in Deinem Wording zu bleiben).

Das Schöne ist ja: niemand wird gezwungen, irgendwas zu kaufen. Man schaut, was man ausgeben will und was man dafür bekommt. Ich schaue mir auf jeden Fall an, was die 4060 auf alten Systemen leisten kann - wenn dann der Preis stimmt, wird sie eventuell gekauft. Wenn so wohl Leistung als auch Preis nicht überzeugen, wird sie es eben nicht. So einfach ist das.
 
  • Gefällt mir
Reaktionen: Fallout667, ThirdLife und MrHeisenberg
conglom-o schrieb:
Nach Deiner Logik trotzdem Scheiße.
8gb sind scheisse ja.
In 2023, mit nur 8 lanes erst recht.
Wenn aber der Vorgänger schon 12gb hatte ist es halt richtig schlecht.

dazu passt ja auch das nda von Nvidia

Aber auf was möchtest du mich denn jetzt festnageln?
 
Intruder schrieb:
Magst du mir das mal ein wenig näher erklären? Was war so schlimm an den hohen Auflösungen gewesen?
Ich persönlich würde sehr gerne Richtung 21:9 gehen allerdings wäre mir eigentlich eine Auflösung höher als UWQHD sehr willkommen.
Naja ich ging ja davon aus höhere Auflösung= höhere Pixeldichte was schärferes Bild bedeutet.Also schaute ich das ganze an.Größere Bildschirme mit höhere Auflösung hatten nicht so hohe Pixeldichte.Also nahm ich ein 24" mit 4k und dachte geil ne Pixeldichte von 183 PPI das ist super scharf,da brauche ich keine Kantenglättung mehr.Als ich das dann gehabt hatte,kam die Ernüchterung.Es brauchte noch immer ne Kantenglättung ,man sah sie nur nicht so gut weil alles so klein gewesen war.Aber wenn man da genau hingeschaut hatte sah man das sehr wohl.Ich bildete mir immer ein meine Augen gewöhnen sich schon an die kleine Optik.Ich sah zwar kaum die Gegner aber hauptsache Scharfes Bild.Es taten mir irgendwann auf einmal die Augen weh, ich stellte die Auflösung runter.Es war zwar dann besser aber durch den Downfilter aufgrund weil es nicht die Native Auflösung war supoptimal.Ich dachte gut mir taten zwar noch immer die Augen weh,aber ich werde mich schon noch dran gewöhnen.
Das machte ich dann 2 Jahre zog ich das durch. Bis es mir dann zu blöd geworden war.Ich verkaufte den an einer von der Gruppe wo auch davon profitiert von der hohen Auflösung fürs Arbeiten und ich kaufte mir daraufhin einen WQHD 24".Es war zwar besser gewesen mit der größe und so,aber irgendwie sah noch immer alles viel zu klein aus und meine Augen taten noch immer weh.Ich dachte gut werde ich mich schon noch dran gewöhnen.Ich versuchte sogar es mit Full HD auszugleichen.Es sah nur verschwommen aus und da merkte ich dann auch nix mehr so richtige von Kanten weil ich da schon etwas verwendet hatte.Bis mir das auch da zu blöd geworden ist und darum mir ende letztes Jahr nach einem Full HD 24" umgeschaut hatte.Jedoch weis ich nun das die Marke Philips ne schlechte bei der niedrig Preis Region ist. Seid ich native Full HD 24" habe,tuen mir die Augen nicht mehr weh und alles ist klar und nicht Verschwommen.Ab da habe ich mir geschworen keine höhere Auflösung als Full HD zu Nutzen.

Ab da weis ich nun das die PPI nicht unbedingt als RIchtwert zu sehen ist.

Die Technik von Nvidia Erinnert mich genau an das,was es so macht.Wenn ich das Einschalten würde,wenn ich mal ne neuere GPU hätte,würde es aus einem Full HD ein HD Bild herunter Rechnen,aufwerten und dann als Full HD wiedergeben.Aber es wird dennoch nur HD Berechnet,darum bezeichne ich es auch als Fake FPS.Ich habe den direkten Vergleich gesehen gehabt von DLSS und Native.Ich sah leichte Unterschiede wenn man sehr genau hinschaut.Ich kann also den Unterschied erkennen,wenn ich es direkt gegenüber stelle.
Von daher so viel besser macht es die Technik nun auch wieder nicht.Also so cool es Nvidia auch machen mag,wenn die Leistung nicht reicht,stelle ich halt eben von Full HD auf HD herunter.Mein Bildschirm ist gut nach unten Skalieren.Wenn man einen guten hat,dann macht das keinen so großen Unterschied mehr.Darum habe ich ja auch einen Bildschirm mit wenig Schnick Schnack und dafür das was er kann sehr sauber. Die meisten machen den Fehler und schauen das ein Bildschirm möglichst viel kann.
Ich habe bewusst auf HDR verzichtet.Nun gut dafür kann mein Full HD 144 HZ,das wo das einzige ist was er neben dem Standard noch so beherrscht.Habe ja extra nen Aufpreis dafür bezahlt. Sonst hätte ich auch einen guten Full HD 24" auch für nur 50€ anstatt 150€ dafür bekommen gehabt.
Er beherscht auch nen hohen Dsiplayport Standard,aber den verwende ich nicht weil es da noch nicht so wichtig ist.Auch der höhere Farbraum beherscht mein Bildschirm nicht.
Also an Helligikeit und so passt auch alles super.Extra auf IPS drauf geachtet gehabt.OLED ist mir auch nicht so wichtig.
Entscheidend ist das was so ein Bildschirm alles können muss als Mindestmas.

Nivida kann also mir in der hinsicht nix mehr bietet.So auf Niedrige Auflösung zu stellen kann jeder machen. Das sind dann wirkliche FPS. Ich selbst habe noch ne gtx 1650 und so viel mehr bietet mir so eine GPU auch nicht wenn man sowas wie DLSS und Raytracing weg lässt.Klar gibt es mehrleistung aber auch mehr Stromverbrauch. Nun ich schaue mal wie so die Leistung halt sein wird.
 
  • Gefällt mir
Reaktionen: Intruder und M11E
Diablokiller999 schrieb:
Zumal man ja bei Leuten wie Igor keine Ausnahme macht, hat wohl seine Gründe wieso niemand der Influencer mit einem Multimeter umgehen kann ;)

Wenn man bei Igor eine Ausnahme machen würde, müsste man aber auch echte andere Fachmänner schon frühzeitig mit dem neuen Spielzeug spielen lassen und Igor ist sicher nicht käuflich.

Obwohl ich diese Influencer auch mehr als Grippe, als als Informationsmedium betrachte, bin ich aber nicht der Nabel der Welt und Werbung funktioniert nun einmal so.

Und Nvidia vorzuwerfen, sie würden mit allen (legalen) Mitteln ihren Gewinn maximieren, ist mMn auch verlogen. Wir sind alle nicht auf den Kopf gefallen und ein Quellenstudium gehört dazu, wenn man sich neue Sachen erzählen lässt oder alte Sachen neu lernt.

Ist die Quelle Mist, dann ist die Quelle Mist. :heilig:

mfg
 
  • Gefällt mir
Reaktionen: Intruder und Fallout667
mae1cum77 schrieb:
Zeigt nicht neues. In den Tests hier auf CB ist die 4060Ti in 1080p/Rasterizer ~5% schneller als die 3060Ti, bei PCIe 4.0 wohlgemerkt. Das deckt sich mit den 1080p-Messungen im Video.
Davon redet keiner, es geht hier um 3.0 und um die Frames die verlorengehen, wenn man keinen 4.0 Steckplatz hat. Keiner steckt sich einen 4090 in einen 3.0 Steckplatz, Schwachsinn😂.Da hat man meistens ein aktuelles System. Fakt ist, wenn man eine 3060ti in einem 3.0 Stecklplatz hat ist die genauso schnell wie eine 4060Ti. Den Vergleich, den hier nVidia zu einer GTX 1060 anstrebt, hinkt und ist nicht realistisch.
Aber mit DLSS3 ist der Abstand natürlich gewaltig und damit argumentiert nVidia auch.
 
Zuletzt bearbeitet:
@latiose88 Die Idee mit 4K auf 24 Zoll hättr man dir hier im Forum sofort aus geredet. Wieso kein 27er oder größer gegenommen? FullHD auf 24" klingt so nach 2010.
 
GERmaximus schrieb:
Aber auf was möchtest du mich denn jetzt festnageln?
Nur darauf, dass dann die 7600 auch Scheiße ist. Die ist sogar noch mehr Scheiße als die 4060, weil sie weder DLSS3 mitbringt und wahrscheinlich sogar mehr verbraucht als die nvidia.

Und wenn die 8 GB nicht reichen, muss man die Regler runter drehen. Wer natürlich überhöhte Erwartungen an eine EINSTIEGSKARTE stellt ist selber schuld. Zielgruppe sind anscheinend die Leute, die eine 1060 im Rechner haben. Nicht die, die eine 3060 oder 3090 oder sonst was fahren.

Finde ich die Ausstattung toll, die die 4060 hat? Nein (4050 wäre sicher der bessere Name). Das Vorab "Review"? Bestimmt nicht. Aber ist die Karte "Scheiße"? Nein, ist sie (vermutlich) nicht. Sie wird sicher ihre Lücke finden - wenn der Preis stimmt!
 
  • Gefällt mir
Reaktionen: Fallout667
@Wichelmanni
ja ich wollte halt sehr hohe Pixeldichte haben.Weil die ja so schön scharf war.Naja bei nem anderen Platz habe ich zwar ein 27" aber auch als Full HD mit 60 hz.Das spielt sich auch nicht so schlecht.ALso ich bin dazu über gegangen weniger als mehr auf die Pixeldichte zu gehen.Und dafür kann ich nun wirklich Kantenglättung einschalten. Da rechtfertigt es ja deutlicher als mit den höheren Auflösung.Selbst bei 27" kann ich mir vorstellen das es eben mir zu klein wirkt.Das Problem auch bei noch größeren Bildschirm man braucht sehr viel Platz beim Schreibtisch.Das ist die Kehrseite an dem ganzen wenn der Schreibtisch begrenzt ist.Nen größerer Schreibtisch geht nicht weil Zimmer kann man nicht vergrößeren.ALso eine Sackgasse wie ich so sehe.Es hat halt alles seine Vor und Nachteile.
 
Zurück
Oben