News RTX 5000 Release: Die Nvidia GeForce RTX 5080 macht am 21. Januar den Anfang

  • Gefällt mir
Reaktionen: SweetOhm, aluis, Benj und 4 andere
Pisaro schrieb:
Was will man mit so einer "Gurken"karte? :)

Schleichfahren? :)

scgkeucg.png



NguyenV3 schrieb:
Das stimmt. VRAM ist halt nicht alles. Habe mich damals für den 1060 6GB "Speicherkrüppel" anstelle der RX 480 entschieden.

Der Speicherkrüppel war die RTX 1060/3GB... Die waren selbst zu Release knapp. Selbst die 1050ti hatte 4. Ditto das Vorgängermodell der 1060. Und die GTX 970. 3GB damals waren in etwa das, was für 2025 die 8GB sind.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Benji18, dohderbert, iron_monkey und 2 andere
Völlig am Spielemarkt vorbei entwickelt.
In welcher Alters- und Zielgruppe sind denn die meisten Spieler/innen unterwegs?
Ich würde sagen, ab 12 Jahren geht es los und dann wird meist bis Mitte 30 am PC gespielt, sofern Beruf und Familie das überhaupt noch zulassen.
Gerade die jungen Gamer/innen können Preise über 500 € gar nicht bezahlen, weil ihnen das Geld dafür fehlt.
Schließlich kommen bei einem Spiele-PC neben der Grafikkarte noch weitere teure Hardwarekomponenten hinzu.
Sollen sich in Zukunft nur noch Wohlhabende Grafikkarten leisten können?
Hinzu kommt der hohe Stromverbrauch von bis zu 600 Watt unter Last, ebenfalls nicht mehr zeitgemäß, wo man eigentlich darauf bedacht ist, Energie nicht sinnfrei für Spielereien zu verprassen.
Im Grunde ist alles nur Fake und Computergrafik.
 
  • Gefällt mir
Reaktionen: Grundkurs
mTw|Marco schrieb:
Also willst lieber eine langsamere Grafikkarte kaufen, aber Hauptsache VRAM passt?
Du kämpfst hier gegen Windmühlen. Sie werden ihren VRAM mit allem verteidigen was sie haben weil das der einzige Punkt ist wo eine AMD Karte ( in ihren Augen ) noch vorne ist.
 
  • Gefällt mir
Reaktionen: Benj, Fallout667, DerDawn und eine weitere Person
Chismon schrieb:
Wenn Closed Source nicht im allgemeinen Interesse der Verbraucher, der überwiegenden Gesellschaft und somit des Gemeinwohls sind sondern eine marktberrschende Stellung eines Konzerns eben sichert, sollte eine forcierte Öffnung durchaus für Kartellregulierungsbehörden rechtlich machbar sein (wobei ein Verstoß dagegen dann finanzielle oder produkttechnische Konsequenzen nach sich ziehen könnte).
Wenn es Frieden, Gesundheit, Wohlstand oder andere essentielle Dinge beträfe, wäre ich dazu nur allzu gerne bereit diesen Eingriff in die freie Marktwirtschaft gutzuheißen.
Würden wir hier über technischen Fortschritt reden, der wie gerade beschrieben Arbeitsplätze, Wohlstand, Gesundheit und dergleichen schafft, wäre das Verlangen vom Öffnen des Codes noch was anderes.
Gäbe es einen Verdacht auf fiese Machenschaften im Code, wäre das auch noch was anderes.

Wieso aber für Verbraucher, die selbst entscheiden könnten ob sie ein Produkt kaufen? Damit die ihren bequemen Hintern nicht bewegen müssten und stattdessen auf eine Single-Click-Installation zurückgreifen können, während sie die Grundlagen von Linux noch nicht verstanden haben?

Kauf halt AMD/Intel. Wird vielen Linux-Usern empfohlen.
Neben Manjaro-unstable habe ich die CUDA-Repo in Debian bookworm eingebunden. Wayland ist auch auf AMD/Intel noch eine Qual, da breche ich mir mit nVidia keinen zusätzlichen Zacken aus der Krone.

Bringe mir gute Grunde für die Wirtschaft/Gemeinschaft, dann bin ich bei dir. Gaming lasse ich nicht gelten.

Chismon schrieb:
nVidia hätte dabei nichts zu melden, wenn die Regulierungsbehörden überlegt agieren, denn nVidia müsste kuschen oder Huang & Co. können den Laden ansonsten fast komplett schließen.
Das ist ein Eingriff in die Marktwirtschaft. Das ist kein Sandkasten, wo man dem bösen Kind der Nachbarn mal eben die Schippe klaut.
Diese Eingriffe sollten mit viel, viel Vorsicht, Bedacht und möglichst selten erfolgen. Dafür braucht es gute Gründe: Wohlstand, Gesundheit, etc.

Chismon schrieb:
[...] (so nach den dortigen Regeln Geschäfte gemacht werden müssen und nicht nVidia oder andere selber den Markt nach eigenen Regeln beherrschen).
Regeln kann man schaffen ... vorher. Die Regeln mitten im Spiel zu ändern weil man abgehängt wurde, ist erbärmlich. Viel schlimmer ist aber, dass es keine Stabilität sondern stattdessen Willkür suggeriert. Langfristige Planbarkeit und Stabilität sind essentiell für gute Handelsbeziehungen.

Ich kürze das hier ab und antworte nicht auf den Rest: mir gefällt dein Standpunkt aus Verbrauchersicht nicht. Ich spüre da eher Egoismus als ein Bestreben zum Allgemeinwohl.
nVidia ist böse. Fein! Das rechtfertigt aber noch lange nicht, sich selbst wie ein Rüpel zu benehmen: Embargos, Zwangsoffenlegung von Firmengeheimnissen, etc.
Wir können über den Verbraucherschutz diskutieren wenn nVidia eine Niere von dir will falls du keine Karte von ihnen kaufen möchtest. In der EU wird nicht ein einziger Verbraucher gezwungen von nVidia zu kaufen.

nVidia hält sich an die Regeln. Interessant wirkt auf mich eher, dass du die Regeln an sich nicht zu mögen scheinst bzw. bedauerst, dass andere ihre Möglichkeiten bei den Regeln nicht ausschöpfen:
  • bindende Verträge sind imho moralisch vertretbar, Knebelverträge nicht,
  • Gegenleistung von Entwicklerstudios für Geld, Support oder KnowHow zu verlangen ist angemessen, nicht aber der Konkurrenz Knüppel zwischen die Beine zu werfen (HairWorks),
  • ein Luxus-Produkt, für das es mittlerweile auch zwei andere Anbieter gibt, anzubieten, erlaubt einem quasi den eigenen Preis frei zu gestalten, Preisabsprache wäre evil (ginge aber nur mit AMD oder Intel),
  • Speichermangel in der (W)QHD-Klasse? Spiel halt FHD mit einer 2060 Super (8GB), einer 3060 (12GB) oder einer 4060 Ti (16GB). Oder schiebe den Regler 2 Stufen nach links. Dann kannst du deine Niere auch behalten. Unfein von nVidia? JA! Heulsusen auf Gamerseite? JA!
Sich unfein zu benehmen rechtfertigt noch lange kein Schafott (bzw. Zerschlagung, Embargo, etc.).
Moral und Unternehmertum passen bei einer Kapitalgesellschaft nicht in ein paar Schuhe.

Viel Glück wünsche ich jedem dabei, anständige GPU-Karten als NPO zu entwickeln - ohne Closed Source, Patente oder Lizenzen. Du wirst so schnell kopiert und verdrängt werden, dass du nicht mal Zeit hast die Brosche deiner Oma zu verkaufen, die sie an einem ganz besonderem "Ort" durch den Krieg gebracht hat. :freak:

Syrato schrieb:
Lies dir den Test zu Indiana Jones auf CB durch, es ist leider Realität.
Habe ich.
"Realität" wäre es ohne Regler für die Texturqualität. Ist der rausgepatched worden? Geht noch eine Anpassung über die ini-Datei? :freak:

/edit
Euren Unmut über nVidia kann ich nachvollziehen, mir scheinen die Gegenmittel aber zu drastisch. Lasst euch nicht ärgern. Gönnt euch lecker Brötchen zum Frühstück. Ich habe den Text geschrieben als ich noch müde und hungrig war - bissl bissig geworden. :freak:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NguyenV3, Flunkiii, Quidproquo77 und eine weitere Person
blende11 schrieb:
Völlig am Spielemarkt vorbei entwickelt.
In welcher Alters- und Zielgruppe sind denn die meisten Spieler/innen unterwegs?
Ich würde sagen, ab 12 Jahren geht es los und
Definitiv nicht. Sonst würde nVidia (und auch AMD verhältnismäßig) nicht schon seit Jahren gut verkaufen, auch was die teureren GPUs angeht.

Die meisten zocken doch eh an der Konsole.
Ergänzung ()

B3rry schrieb:
Du kämpfst hier gegen Windmühlen. Sie werden ihren VRAM mit allem veverteidigen

Also im Endeffekt genau das selbe was nVidia Jünger bei dem "zu wenig" Vram machen:)
 
MikePayne028 schrieb:
Und jetzt jahre später kacken die Nvidia Karten REIHENWEISE ab, weil der VRAM zu knapp wird und die Dinger werden von AMD sogar in RT plattgemacht.
Ich nehme das Mal als.ausschnitt , bist schon ganz schön auf Krawall aus was , gescamt wie du es sagst wurde keiner man bekommt das was man sich selber ausgesucht hat und diese Karten machen was sie sollen

Was deinen zu knappen vram angeht wo ist der zu knapp ? Nur weil ein Spiel Mal schlecht programmiert wurde ? Oder weil man mit 16 Gig RAM mein in 4k und alles auf max zu spielen ? .....komischerweise hab ich von Leuten gelesen die Indiana Jones .... Das ist ja wohl der Aufhänger mit einer 4080 in 1080p bzw 1440p keine Probleme beim spielen haben ....

Das Grafikkarten irgendwann an ihr Limit kommen ist schon immer so gewesen .... Da kann man aber dank variabler Einstellung bei spielen noch was gegen machen und damit sieht es meistens immer noch besser als auf Konsole aus
 
DaBas schrieb:
Man kann das von 2 Seiten sehen. Rein von den technischen Daten dürfte die 5090 meilenweit vor der 5080 liegen. Auch wenn für die 5090 absurde Preise aufgerufen werden, kauft niemand mehr eine 5080, die weit abgeschlagen ist und auch preislich heftig zulangen wird. Ergo geht erst die 5080 ins Rennen. Einige werden dann geblendet sein und kaufen. Anders herum wäre es wohl deutlich schwieriger....
Sehe ich absolut genauso!

Zuerst verfüttert man dann die 5080 an welche die ausgehungert sind und endlich eine neue GPU kaufen können! Welche ansich ja nicht schlecht sein wird!
Und dann kommt die 5090 und ein kleiner Teil ärgert sich und wird dann vl auf die 5090 springen, also hat Nvidia Doppelt verkauft.
Die anderen warten ohnehin auf die 5090 aber wer hat soviel Durchhaltevermögen?
Die haben bestimmt alles genau Analysiert welche Methode und Taktik am besten für den Geldbeutel ist, und wir Menschen sind seid Jahrhunderten genauestens durchforscht (wie verhaltet sich die Masse).
Die Frage wird seine lohnt es sich für alle die eine 4070ti super aufwährts haben überhaupt auf eine 5000er umzusteigen?
Wenn dann lohnt sich sowieso nur die 5090 und da diese ohne Konkurenz ist… dementsprechend teuer.
Aber machen wir uns nichts vor, die 5090 geht weg wie warme Semmeln!
Ich überlege auch von meiner 4070ti super umzusteigen wobei ich locker auf die 6000er warten könnte… warum bin ich so?😂
 
scryed schrieb:
Das Grafikkarten irgendwann an ihr Limit kommen ist schon immer so gewesen .... Da kann man aber dank variabler Einstellung bei spielen noch was gegen machen und damit sieht es meistens immer noch besser als auf Konsole aus
NVidia lässt die Karten halt mit voller Absicht ins Limit laufen.
Dass der VRam-Bedarf angesichts schlechter Konsolen-Ports und der PS 6 steigen wird, ist Tatsache.
Trotzdem verkauft Nvidia wieder teure Karten, die zukünftig genau daran scheitern werden.
Rohleistung wird bei einer 5070 vermutlich genug da sein.
Aber mit RT und hohen Details reicht der Speicher dann einfach nicht mehr aus.
Das ist, als würde man eine Corvette mit einem 10 Liter Tank verkaufen.
Solange der Kunde mitspielt und brav alle 2 oder 3 Jahre kauft, wird diese Frechheit nicht aufhören.

Und nein, ich bin kein AMD-Fanboy. Nutze aktuell eine gebrauchte NVidia-Karte.
Aber bei sowas mitzuspielen, ist einfach dumm aus Sicht der Käufer.
Bei einer 200 Euro-Karte kann man das verschmerzen.
Aber wenn man über 500 Euro dafür bezahlt, dann muss man schon Masochist sein.
Hoffentlich bringt AMD was Brauchbares, mit dem man einige Jahre Ruhe hat in WQHD.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
Aphid schrieb:
Ich, stiller Mitleser, Familienvater und deswegen nur Gelegenheitsspieler, bin weiterhin mit meiner RTX 3060 12GB zufrieden (ohne RT und „nur“ in WQHD 🙈).

Viele Grüße von außerhalb der Bubble 🫧😉

Meine Frau hat ebenfalls eine RTX 3060 12GB. Damit geht alles... Sie spielt auch öfters den Vorzeigenichtoptimierten UE5 Titel ARK ASA.

Der ist in FHD auch damit gut spielbar. Wenn man will geht vieles.

Ich spiele Indy und Star Citizen mit meiner 4070 in WQHD. Indy flitzt mit 70 FPS und Star Citizen ist mehr im CPU Limit als im GPU Limit.

Größer geht immer, keine Frage. Aber da wir nicht alleine sind und die Kinder auch Hobbys haben passt man sich an. Und es geht 😁

Gruß
Holzinternet
 
Wenn die 5080 tatsächlich eine 4090 schlägt, habe ich sehr zeitnah eine neue GPU.
Die reicht dann auch für UHD Gaming.
Meine jetzige 4080 Super ist perfekt für eine 3840x1600 aber es ist eben auch ein neuer (dann wieder UHD) Monitor für dieses Jahr 'auf dem Zettel'.

Mal schauen.
 
Pisaro schrieb:
Also im Endeffekt genau das selbe was nVidia Jünger bei dem "zu wenig" Vram machen:)
Nö eher mit den 50 anderen Gründen warum man sich eher eine Nvidia als eine AMD Karte kaufen sollte.
Ergänzung ()

martin_m schrieb:
NVidia lässt die Karten halt mit voller Absicht ins Limit laufen.
Dass der VRam-Bedarf angesichts schlechter Konsolen-Ports und der PS 6 steigen wird, ist Tatsache.
Trotzdem verkauft Nvidia wieder teure Karten, die zukünftig genau daran scheitern werden.
Rohleistung wird bei einer 5070 vermutlich genug da sein.
Aber mit RT und hohen Details reicht der Speicher dann einfach nicht mehr aus.
Das ist, als würde man eine Corvette mit einem 10 Liter Tank verkaufen.
Solange der Kunde mitspielt und brav alle 2 oder 3 Jahre kauft, wird diese Frechheit nicht aufhören.

Und nein, ich bin kein AMD-Fanboy. Nutze aktuell eine gebrauchte NVidia-Karte.
Aber bei sowas mitzuspielen, ist einfach dumm aus Sicht der Käufer.
Bei einer 200 Euro-Karte kann man das verschmerzen.
Aber wenn man über 500 Euro dafür bezahlt, dann muss man schon Masochist sein.
Hoffentlich bringt AMD was Brauchbares, mit dem man einige Jahre Ruhe hat in WQHD.
Krass kannst du mir ein paar Specs zur PS6 sagen ? Ich meine das ist ja Tatsache. Hau doch mal raus was man da so brauch an VRAM.
 
Die meisten Leute kaufen sich doch solche Karten überhaupt nicht. Sieht man doch immer schön bei den Umfragen von Steam, oder letztens auch hier bei der Redaktion, was dort alles in den privaten Rechnern verbaut ist. Und hier wird man bald fast wie ein Auto angeguckt, wenn man nicht immer gleich die neuste und teuerste Grafikkarte im Rechner hat. Das hier sind absolute Ausnahmen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xexex, MikePayne028, Windell und eine weitere Person
blende11 schrieb:
Völlig am Spielemarkt vorbei entwickelt.
In welcher Alters- und Zielgruppe sind denn die meisten Spieler/innen unterwegs?
Ich würde sagen, ab 12 Jahren geht es los und dann wird meist bis Mitte 30 am PC gespielt, sofern Beruf und Familie das überhaupt noch zulassen.
Gerade die jungen Gamer/innen können Preise über 500 € gar nicht bezahlen, weil ihnen das Geld dafür fehlt.
Schließlich kommen bei einem Spiele-PC neben der Grafikkarte noch weitere teure Hardwarekomponenten hinzu.
Sollen sich in Zukunft nur noch Wohlhabende Grafikkarten leisten können?
Hinzu kommt der hohe Stromverbrauch von bis zu 600 Watt unter Last, ebenfalls nicht mehr zeitgemäß, wo man eigentlich darauf bedacht ist, Energie nicht sinnfrei für Spielereien zu verprassen.
Im Grunde ist alles nur Fake und Computergrafik.
Hier ist Username Programm was? Viele "Ältere" (Ü40) Menschen zocken am PC und sind zusammen mit der Spieleindustrie groß geworden. Genau das ist die Zielgruppe. Familie und Job heißt doch nicht automatisch, dass man keine Zeit mehr hat :D
 
  • Gefällt mir
Reaktionen: Player49
BasementDweller schrieb:
Wo sind die Preise für den 9800X3D oder die Intel B850 jetzt bitte extrem? Beide Artikel kannst du ganz nah an der UVP bekommen. Im Zweifel muss man mal ein paar Tage warten - aber von extremen (!) Preissprüngen und leeren Regalen, wie beispielsweise während des Miningbooms, sind wir nun wirklich weit entfernt.
ARC B580 MSRP = 249$ > in euro sind wir aber bei über 300! das sind 25% mehr.

4090er hat einen MSRP von 1.599,00 USD. mal davon auszugehen, dass die 5080er eher nicht billiger wird sondern ca. das gleiche kosten wird. dann schlägst da noch 25% drauf. wo bist du dann? 2000,-

ich blaube nicht, dass ich mit meine 1950,- Euro so weit weg sein werde. wird aufkommen!

udn wie gesagt, ich rede von realistischen kaufbaren listenpreisen zum start!

weil sorry, aber es macht für mich absolut keinen sinn wenn es 4090er um 2400,- (aktuell lagernde versionen) verkauft werden - zigg verschiedene modelle. dass eine 5080er recht viel billiger sein wird.
 
SweetOhm schrieb:
Da sah aber 1 Jahr später mit dem 480´er Refresh (580/90) mit ihren 8 GB wieder anders aus.
Im Bild sieht man nur die 590, nicht die 580.
Die war ja auch generell schneller, weil sie hochgezüchtet wurde, das liegt nicht am VRAM.

Und zu welchem Preis
IMG_3867.jpeg
 
@Abrexxes Er meint mit Sicherheit die Speicheranbindung der GTX 970. 3,5 GB waren schnell und 0,5 GB langsam angebunden, was für Probleme gesorgt hat.
 
  • Gefällt mir
Reaktionen: SweetOhm, MikePayne028 und Abrexxes
blende11 schrieb:
Ich würde sagen, ab 12 Jahren geht es los und dann wird meist bis Mitte 30 am PC gespielt, sofern Beruf und Familie das überhaupt noch zulassen.
Die Zeiten sind lange vorbei, heute kommt der 21 Jahre alte Student in die Abteilung und tauscht sich mit dem 48 Jahre alten Chef, Vater 2er Kinder übers Zocken aus. Ist nur ein Beispiel.
Ja, nicht jeder zockt als erwachsener weiter, aber mehr als genug tun es. Und da bekommen die Kids die „Alte“ Hardware, die 2 Generationen alt ist und immer noch gut verwendbar.
 
Zurück
Oben