p4z1f1st
Commander
- Registriert
- Apr. 2017
- Beiträge
- 2.348
Probleme über Probleme... kauft euch ruhig die 40er RTX 🤣
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Danke für den Link. Dem gibt es wenig hinzuzufügen - wirklich sehr deprimierendNolag schrieb:PC Gamer hat einen lesenswerten Artikel dazu: We've run the numbers and Nvidia's RTX 4080 cards don't add up
Garack schrieb:Gut dann muss eine schönes ATX 3.0 Netzteile mit ????? Watt für die 4090 gekauft werden. 1200 Watt ??
https://www.corsair.com/newsroom/pr...atibility-for-nvidia-40-series-graphics-cardsWhile the RTX 4090 uses a new 12+4 pin 12VHPWR power connector, all cards will ship with a PCI-e 8-pin power to 12VHPWR adapter. There’s no need to wait for future PSUs to support Intel’s new ATX 3.0 standard
Man kann so vieles, aber erinnern wir uns noch mal dran als was die 3090 ursprünglich verkauft wurde. Es sollte die Karte für absolute Enthusiasten und 8K Gaming sein, den Anspruch hat sie nie wirklich erfüllt. Eigentlich sollte eine 3090 die frühere Titan sein, unheimlich teuer, unheimlich leistungsfähig, für Leute mit einem besonders dicken Geldbeutel.Taxxor schrieb:Demnach gibt es aktuell nicht mal eine einzige Karte, die man als 4080 bezeichnen dürfte und die 4080 16GB für 1469€ ist , bezogen auf die Performance innerhalb des Lineups, eher der Nachvolger der 3070.
Na na na na ... Moment maldukee schrieb:2000 Euro und 1000 Watt .. also Nvidia trifft ja richtig den Zeitgeist . Mal ganz ehrlich das ist doch krank .
Gaming am PC wird zum Luxus ...
Meinen letzten Rechner 2016 habe ich für ca. 1000 Euro zusammengebaut . War damals noch die 1070 GTX am Start.
Bei diesen Preise habe ich persönlich gar keinen bock mehr in Gaming-PCs zu investieren .
ThirdLife schrieb:Weil Reifen, Sprit, Wertverlust oder Zugtickets gratis sind ? Oder hat dein Chef dir das ersetzt ?
Dann könnte ich das verstehen. Würde aber dennoch HO machen wollen, meine Lebenszeit is ja auch was wert und pendeln is nicht sonderlich effizient.
Finger weg davon. Schau bei YouTube da gibt es genug WarnungenYoungtimer schrieb:Nein, jeder 4090 liegt ein Adapter bei der auch ATX 2.x Netzteilen funktioniert.
https://www.corsair.com/newsroom/pr...atibility-for-nvidia-40-series-graphics-cards
wenn man sich vorherige Generationen ansieht, lag man immer irgendwo um 80%, die 3080 ist mit 88% näher dran gewesen weil sie sich den Chip mit der 3090 geteilt hat.shaboo schrieb:Der reine Leistungsunterschied zwischen 3080 und 3090 war außergewöhnlich gering und diesen Unterschied hat man bei 4080 und 4090 wieder etwas "normalisiert".
Ja, da hast du vollkommen Recht. Da hat man wohl eher "übernormalisiert".Taxxor schrieb:Ein „normalisieren“ würde bedeuten dass die 4080 16GB wieder bei ~80% liegt, aber sie liegt ja nun gerade mal bei 59%
PHuV schrieb:BTW: Keinen interessiert hier die gewaltige Tensorleistung? 😳
Leute, das ist über Faktor 4!!! Für ML/DL grandios, und ich sage es Euch, die Karten werden weggehen wie warme Semmeln. Auch die Blenderfraktion wird jubeln.
Nur um das nochmal etwas zu verdeutlichen (Grundlage ist der Performance-Index von 3dcenter.org):Moon44 schrieb:Wow Nvidia. Ich bin echt beeindruckt! Meine aktuelle (Nvidia) Grafikkarte stammt aus dem Jahr 2017. 5 Jahre später schafft es Nvidia genau 0 FPS pro Euro mehr zu liefern! Hut ab!
Die 4070 wird ja dann auch für einen krass utopischen Preis rauskommen!
Frag mal meinen Schwiegersohn. Die arbeiten mit ML/DL im medizinischen Bereich. Die müssen 8 Stunden bei 4x3090 GTX warten, bis die Verarbeitung durch sind, und das bei jedem Kunden/Krankenhaus. Die werden die neuen GPUs feiern.Moon44 schrieb:Meinst du mit ML/DL Machine Learning und Deep Learning? Und Grafikbearbeitung - auch geschenkt!
Dafür ist DIE Karte gut (4090). Aber konsequenter Weise kann man dann den Rest auch weglassen: 4080 16GB und vor allen die Nonsense 4080 12GB.
Okay, wenn du Grafikkarten zum Arbeiten nutzt - da bringen sie sicher enorme Vorteile!
Brauchen sie doch auch nicht. Verzichten, ältere günstiger Generation kaufen, Detailgrade runterschrauben, sich eine Konsole kaufen... Warum muß hier das neueste und beste sein?Moon44 schrieb:Aber ich sehe "Grafikkarten" als Gamer-Objekte an - und dafür geht solch eine Vorstellung meiner Meinung nach überhaupt nicht. Ich denke nicht das sich viele Gamer sowas leisten werden - wozu?!
Du hast nicht mal in letzter Zeit nach einer lieferbaren Profikarte wie eine Nvidia A100 geschaut, oder?Moon44 schrieb:Für Arbeitseinsätze solcher Hardware gabs ursprünglich ja mal die Quadro-Schiene - ich glaube auch zu diesen Preislagen.
Aber diese professionelle Schiene gibts doch immernoch...
Da finde ich die Preise auch okay! Arbeit ist was anderes - und 2000 € sind schnell "verdient", wenn man täglich etliche Minuten oder sogar Stunden an Zeit spart.
Schlechter Vergleich, die A100 basiert auf einem komplett anderen Chip und ist als Grafikkarte nicht wirklich nutzbar, du müsstest schon die A40 nehmen.PHuV schrieb:Und rechne mal eine A100 gegen 3090 dagegen. Firmen haben auch nicht das Geld endlos. Und nun kommt eine 4090 zum Bruchteil einer A100.
PHuV schrieb:Und rechne mal eine A100 gegen 3090 dagegen. Firmen haben auch nicht das Geld endlos. Und nun kommt eine 4090 zum Bruchteil einer A100.
Die Frage die sich mir hierbei stellt ist aber was will man da noch groß viel mehr abkassieren ?shaboo schrieb:Irgendwie auch eklig, wie man den Leuten für den einzig legitimen Nachfolger der 3080 plötzlich 1200 statt 700 Dollar aus der Tasche zieht, und dabei gleichzeitig noch darauf achtet, die Lücke zur 4090 derart groß zu lassen, dass da bequem noch eine 4080Ti reinpasst, für die man NOCH MEHR KOHLE abräumen kann.
Hier muss man halt sein Dataset beachten. 80GB HBM2 sind da nicht zum Spaß draufgetackert. Und wenn man mit riesigen Modellen arbeitet braucht es das u.U.PHuV schrieb:Und rechne mal eine A100 gegen 3090 dagegen. Firmen haben auch nicht das Geld endlos. Und nun kommt eine 4090 zum Bruchteil einer A100.