News Nvidia GeForce: RTX 3090, 3080 & 3070 mit viel mehr Leistung ab 499 €

PHuV schrieb:
Meine 2080TI FE hat sich jetzt 2 Jahre im Preis stabil gehalten und hat brav ihren Dienst getan. Ich beschwer mich nicht, die anderen auch nicht , warum beschwerst Du Dich überhaupt als Nichtbesitzer? :confused_alt:

Das ist menschlich, keiner gesteht sich gerne so etwas ein.

Warum ich für Enthusiasten einstehe? Bin halt ein sehr mitfühlender Mensch.

Beschweren würde ich das übrigens nicht nennen, die 2080Ti wird ja nicht von mir gerade massenweise auf Ebay platziert.
Siehe andere News ;)

Denke da wird still gelitten.

Und sag nicht dir ist egal das der Wertverlust so hoch ist und die neuen Karten doppelt so schnell fürs gleiche Geld.
 
Laphonso schrieb:
-Unnötiges Komplettzitat entfernt-
Wie es richtig geht, ist hier nachzulesen.

Auf den ersten Blick erscheint das wohl nicht ganz nachvollziehbar (auch wenn man diese Hardware-Konstellation einem NV-Intel-Setup 100% vorzieht), aber vielleicht ist hier eine geheime Botschaft versteckt. Die Leute, die representativ für eine Firma über den offiziellen Twitter-Account eine Message rausgeben, werden sich 100% Gedanken gemacht haben, was und wie sie etwas schreiben wollen. Gibt auch Pfeifen, die in Eigenregie und wenig Überlegung bei Wortwahl, Inhalt und der daraus folgenden beruflichen Konsequenzen was raushauen. Aber das bezweifle ich in diesem Fall. Der Herr wurde ja erst vor nicht allzu langer Zeit von AMD geholt. Warum so früh beim Arbeitgeber in Ungnade fallen :)

Und er schreibt auch, dass die Ampere "nur" gut mit den Ryzen CPUs harmonieren werden und nicht "great". Aber das ist schon zu viel reingedichtet. Abwarten und Tee trinken.
Wäre schon nice, wenn die kommenden Ryzen 3 CPUs features mitbringen würden, die in Kombination mit einer NAVI 2 GPU der Grafikberechnung einen boost geben würden. Es sei denn, solche features müssten schon im Chipsatz enthalten sein und der B550 als neuester wird wohl keine versteckt haben, die erst mit dem release der NAVI 2 offengelegt werden...Aber so eine AMD Hardware-Synnergie wäre schon ein Wettbewerbsvorteil gegenüber NV, sollten die Ryzen weiterhin so gut dastehen. Das was NV mit DLSS an Extra-Performance raushaut, mal auf der Seite von AMD mit Spezial-Features zum Besten geben, so dass man Käufer animiert, sich ein komplettes AMD-System zu holen. Man könnte da easy eine effektive Marketing-Kampagne auffahren, von der AMD als Marke mächtig profitieren würde. Aber erstmal müssen die mit NAVI 2 liefern.

Und mir ist bei der Schreibweise von "RadeOn" aufgefallen, das es vielleicht ein Hinweis sein könnte auf Raytracing-Fähigkeiten der kommenden NAVI 2-Karten. Also in Bezug auf Nvidia´s "RTX ON"...
Wenn ja, dann ist AMD selbstsicher, was die RT-Performance angeht. So würde ich das deuten. Oder alles Quatsch und die schreiben Radeon immer in dieser Schreibweise, lol
 
Zuletzt bearbeitet von einem Moderator: (Komplettzitat entfernt)
  • Gefällt mir
Reaktionen: hurcos
iron mike schrieb:
Ich kann dir ein Beispiel geben, besagter Freund mit seiner erst gekauften 580 und 8 GB VRAM kann in Mittelerde das Texture Pack benutzen, ich mit meiner alten 4 GB Karte nicht. Er hat im Vergleich zur Konsolenfassung also deutlich höher aufgelöste Texturen, ich könnte es grob gesagt genauso auf Konsole zocken, da mir es wegen fehlendem VRAM verwehrt ist.
Das ist dann aber Jahre später ein Thema, wenn die Karten ohnehin nicht mehr wirklich für User geeignet sind die halbwegs Anspruch an die Grafik haben.

User die sich jetzt einen 3070-3090 kaufen gehören wohl nicht zur davon betroffenen Zielgruppe, da das High-End-User sind, die ihre Karte in 2-3 Jahren wieder tauschen und dabei vom für unnötigen RAM gesparten Geld vielleicht sogar etwas früher wieder ein Upgrade durchführen können.
 
  • Gefällt mir
Reaktionen: KlaraElfer und Laphonso
Stimmt so nicht, denn er zockt es soweit ich weiß in höchsten Settings?

Und die Logik passt doch irgendwie auch nicht, denn Enthusiasten wollen schon auch viel VRAM, man wird es auch tatsächlich benötigen.

Weiß nicht was jetzt deine Empfehlung ist. Hätte man eine Karte mit wenig VRAM kaufen sollen? Oder jetzt die Karte mit nur 8 GB? Die werden doch nächstes Jahr schon zu wenig sein, da würde ich keinen Cent dagegen wetten.
 
  • Gefällt mir
Reaktionen: llax
iron mike schrieb:
-Unnötiges Komplettzitat entfernt-
Wie es richtig geht, ist hier nachzulesen.
Naja ein Drama wäre es anderseits auch nicht. Und die 3070 kostet dann halt auch "nur" 499€.
Der Einwurf das die 6GB 1060 durchaus genug Speicher hatte und die 8GB AMD Karten aus den 2GB mehr nun auch nicht wirklich länger halten haben stimmt durchaus. Auch bei einer 6GB 7970 sind die Karten nicht wegen dem Speicher ausgemustert worden.

Zumindest die 8GB klingen nach einer knappe Sache. Die 10GB Karten? Haben wahrscheinlich gerade genug auch für die Konsolen Ports. Wie es wirklich aussehen wird, sieht man dann aber erst in 2 Jahren und so mancher mustert da die Karte sowieso schon wieder aus.

Aber halt auch nicht jeder. So manches System wird einmal gekauft und bleibt dann erstmal ein paar Jahre so unverändert bis irgend eine Anwendung kommt für die man tatsächlich wieder Geld ausgeben will.
 
Zuletzt bearbeitet von einem Moderator: (Komplettzitat entfernt)
  • Gefällt mir
Reaktionen: Warlock-Gaming und xexex
Kurze Info zum Thema WB für die 30XX Karten von Alphacool:

https://forum.alphacool.com/threads/3090-eiswolf-effect-on-length.1160/

Okay since the presentation is done we can talk open now. All the blocks and AIO,s for the new 30XX series are produced already. We will go online with the products as soon we got the info about the compability with the different manufacturers. This time there are unusual number of manufacturers who want to come to the market at the same time with the graphics cards. PNY, Colorful, INNO3D, EVGA, MSI, Asus, Gainward and Gigabyte have announced the cards already. So we have to wait a week longer i am affraid
 
  • Gefällt mir
Reaktionen: Hilzerak, Bright0001, orioon und 2 andere
Apocalypse schrieb:
Auch bei einer 6GB 7970 sind die Karten nicht wegen dem Speicher ausgemustert worden.

Die Variante mit 6 GB hat auch kaum einer gekauft, Standard war die 3 GB Variante.
Bei der 580 z.B. ist es genau andersrum.
Zugegeben, vermutlich hätten bei der auch 6 GB gereicht, aber man profitiert durchaus bei einigen Games.
Und es gibt Leute, die kaufen sich erst jetzt solche Karten als Budget für FullHD.
Weiß nicht warum du ständig von ausmustern sprichst, die sind froh über die 8 GB.
Und ganz ehrlich, die 8 GB jetzt bei der neuen Nvidia sind da doch blanker Hohn, oder bist du auch einer derjenigen die nächstes Jahr wieder von ausmustern sprechen?
Sorry, die Karte kostet 500 Euro. 500 Euro.
 
cruse schrieb:
Und zwecks übertreiben: eine kleine Regel besagt: Immer bei 50-60% der Maximallast betreiben, wenn möglich.
Naja, die Regel kommt eigentlich daher, weil Netzteile in bestimmten Lastbereichen effizienter arbeiten. Das sind eher 50-90% und bei modernen 80Plus Gold aufwärts ist eigentlich effizienztechnisch nur noch der Bereich unter 20% wirklich zu beachten, denn da sind sie wirklich noch recht ineffizient.

Ein gutes Netzteil kann auch sogar oberhalb von 100% betrieben werden, nur sollte das kein Dauerzustand werden.

Optimal ist ein Netzteil in meinen Augen dann dimensioniert, wenn die durchschnittliche Last bei 50-60% der Auslastung liegt und die regelmäßig mal vorkommende Maximallast (z.B. intensive Gaminglast) zwischen 80-90% landet. Und auch das ist nur aus Effizienzsicht betrachtet. Ein Silent Freak wird im Zweifelsfall eher ein größeres Netzteil nehmen, da der Lüfter dann im Schnitt langsamer dreht, weil es geringer ausgelastet wird. Mein Netzteil schaltet so ab 600W aufwärts den Lüfter überhaupt erst das erste Mal an ;) Und wer gerne noch ne Aufrüstreserve hat, plant nochmal 50-100W extra ein.
 
  • Gefällt mir
Reaktionen: 5hred, cruse, Sophisto und eine weitere Person
iron mike schrieb:
-Unnötiges Komplettzitat entfernt-
Wie es richtig geht, ist hier nachzulesen.
Soviel kognitive Dissonanz und Fantasie in nur einem Beitrag, plumpe Strawmen und konstruierte Gedanken.

Ich bin bewusster day one early adopter gewesen, hatte 22 Monate die beste Performance in allen Games und kann nur grinsen über Deine als Häme verpackte Frust und Mißgunst.
Ich kenne niemanden, der sich ab Tag 1 für "Wertverluste" einer 2080Ti interessierte. Diese Käufergruppe hat das Geld meistens sowieso "über". ;)
 
Zuletzt bearbeitet von einem Moderator: (Komplettzitat entfernt)
  • Gefällt mir
Reaktionen: KlaraElfer, Toni_himbeere, t3chn0 und 4 andere
danyundsahne schrieb:
wie kommst da drauf? nur 20-30% zu RX5700XT?!

mit doppelt so vielen Shadern und neuer Architektur?! 2560 -> 5120 Shadern und dann nur 20-30%
Wie hat Nvidia dich denn geritten? :D

Einfach Quark was du erzählst....

Ich meine 20-30% mehr pro Kern durch den leicht verbesserten Prozess und andere leichte Optimierungen (keine Neue Architektur!). Die Kerne skalieren auch nicht linear. Ich glaub es gibt kaum eine Chance, dass AMD an die 3080 auch nur halbwegs herankommt. Zusätzlich gibts bei AMD immer wieder so große Verzögerungen, dass Big Navi erst 2021 kommt. Wird eine große Enttäuschung sein wie fast immer bei AMD GPUs in letzten 8 Jahren. Am Ende ein Nvidia Monopol, bei 4080 ziehen die Preise dann wieder an.
 
Herdware schrieb:
Als Startpunkt habe ich die GeForce256 genommen. Die war vor ca. 20 Jahren die erste Grafikkarte mit einer "modernen" GPU wie wir sie heute kennen. Und tatsächlich habe ich einen Benchmark gefunden, in dem man eine GeForce256 mit einer 2080Ti direkt vergleichen konnte.
Das Leistungs-Verhältnis war irgendwas in der Richtung 5 Punkte vs. >25.000(?). Nicht wirklich überraschend. Aber dann habe ich versucht herauszufinden, wie teuer die GeForce 256 damals war, und bin bei mehreren Quellen auf ca. 100€ gestoßen.

Allerdings scheint das nicht ganz zu stimmen. Jedenfalls nicht als Preis bei Markteinführung.
Wahrscheinlich ging da etwas durcheinander beim Wechsel von DM auf €, und insgesamt findet man im Internet halt nicht so viel aus den 90ern. 😉
GameStar 12/2000:

geforce.jpg
 
  • Gefällt mir
Reaktionen: Maggolos, AlanK, gravens4k2 und 18 andere
DaBas schrieb:
Gleiches Spiel bei der RTX 3070. Die realen Preise dürften bei über 600€ liegen. Wahrlich kein Schnäppchen für eine Karte mit 8 GB VRAM.
Wenn das so sein wird, wie Du das prophezeist - werd ich garantiert nix von denen kaufen - doch mal ehrlich, die Preise dort sind in EURO... inkl. Mwst. - gut das wird nicht für die Customs gelten.

Aber wer zu anderen Preisen nur weil n bischl RGB-Kirmes drauf ist 101€ mehr hinlegt, dem ist nicht mehr zu helfen - für 499€ ist die 3070 spitze, würde ich sogar fast kaufen, wenn von AMD nix käme... doch ich würde tatsächlich lieber 699€ hinlegen, für die 3080.

Darüber gäbe es für mich nix zu feiern.

Zum Stromverbrauch ... hmm gut, ich mag es natürlich nicht 300-350w nur durch die Grafikkarte zu verballern, mich interessiert da aber mehr die Abwärme die mich nervt.
Für die paar Std., die ich mir neben der Arbeit abzweigen kann, scherts mich aber nach meinen fixen Stromsparanschaffungen, die wirklich fressen ... nicht.
Man kann ja mal seinen "Wattzähler" zwischen Induktionsherd oder Backofen stecken, dann sieht man die Stromfresser in der Bude... aber ich wusste schon, warum ich mir ein 750w-NT mit 3 PCI-E 8-Pin geholt habe ...
 
Zuletzt bearbeitet:
Laphonso schrieb:
Wieso twittert der CHEF ARCHITEKT der Gaming Lösungen von AMD, dass die Nvidia GPUs gut zu den Ryzen passen?

Verweist man HIER nicht auf den eigenen Launch?! :confused_alt:
Damit will er verhindern, das die nVidia Käufer CPU-technisch zu Intel greifen weil sie meinen zu nVidia passt nur Intel. Das ist einfach Schützenhilfe für die CPU Abteilung weil sie grafiktechnisch Stand sofort nichts entgegenzusetzen haben.
Der Rest ist tpytisches Marketinggeballer um hoffentlich den ein oder anderen zum Zweifeln und damit Abwarten zu bringen, bis AMD seine Lösungen ready hat (ist ja eigentlich auch gar nicht unvernünftig).
Wenn die Radeons dann besser sind, super, alles richtig gemacht. Wenn nicht, dann ist schnell ein Grund gefunden was eigentlich gemeint war, findet sich immer.

Das würde nVidia andersherum wahrscheinlich ähnlich machen, das ist wie gesagt Standard, es klingt bei AMD nur deswegen so seltsam, weil sie eben auch erfolgreiche CPUs haben.
 
  • Gefällt mir
Reaktionen: Cardhu, 5hred und Laphonso
Cohen schrieb:
Ich bekomme gleich wieder Pipi in den Augen, wenn ich an die ganzen Leute denke die sich für 349 Mark eine GF2MX Karte geholt haben und damit absoluten Schrott. Hauptsache Geforce 2. :heul::heul::heul::heul:

Den Leuten durfte ich dann anschließend oft genug dann eine einfache Geforce 2 nachgerüstet. Ja, der Performance Unterschied war so groß, besonders weil dann viele Spiele gar nimmer mit der MX gelaufen sind.
 
Sophisto schrieb:
Kenne die Karte nicht, aber wenn die Preisliste von 12/2000 ist, dann sollten es doch eher 349 DM gewesen sein?!
Korrekt, ist mir sogar aufgefallen bevor du es geschrieben hast ^-^
Inflationsbereinigt kommt es aber wahrscheinlich sogar hin. ;-)
 
  • Gefällt mir
Reaktionen: Sophisto
Apocalypse schrieb:
Ich bekomme gleich wieder Pipi in den Augen, wenn ich an die ganzen Leute denke die sich für 349 Mark eine GF2MX Karte geholt haben und damit absoluten Schrott. Hauptsache Geforce 2. :heul::heul::heul::heul:

Den Leuten durfte ich dann anschließend oft genug dann eine einfache Geforce 2 nachgerüstet. Ja, der Performance Unterschied war so groß, besonders weil dann viele Spiele gar nimmer mit der MX gelaufen sind.
DM :)
 
Oh je, da wurde ich auf dem falschen Fuß erwischt. Hab für meinen asus noch 769€ bezahlt. Hatte eigentlich vor sie zu behalten, weil ich nicht nochmal soviel ausgeben wollte. Und jet6t hauen die so einen Knaller los. Ich zocke selten ,aber wenn, dann in 4K Und da muss ich leider bei bf5 die Settings schon runter drehen. Die 2080 wäre wohl perfekt. Aber was gibt es für die kaum genutzte 2080 noch? 350? Das schon irgendwie bitter.

da macht es wahrscheinlich mehr Sinn, mich 1 jahr zu quälen und dann lieber in einem Jahr ne gebrauchte 3080 zu kaufen. Grrh. Hätte mic/ problemlos vor 2-3 Monaten von der 2080 trennen können, aber dachte Nvidia setzt noch,al auf die alten Preise was drauf...
 
raekaos schrieb:
Mal abwarten was AMD liefert, vieleicht erklärt sich dann die ungewöhnliche Preispolitik von Nvidia.
Bei der Leistungssteigerung hätte ich von Nvidia einen fetten Aufschlag erwartet, die Preise sind ja unter den Einstandspreisen der RTX 20x0 Generation, gabs ja noch nie sowas.

Ende des Jahres, nach mehr als 4 Jahren Betriebszeit, wird dann meine GTX 1080 in Rente geschickt, so oder so

Nvidia hat aber auch gemerkt das die Preise bei RTX 20XX zu hoch waren, hier im forum sieht man recht oft eine RTX 2080Ti in der Signatur, bei Steam ist diese aber glaube nichtmal in 1% der PCs.
 
Zurück
Oben