Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Nvidia GeForce RTX 3090 Ti: Erste Custom-Modelle von Asus, EVGA und Colorful
- Ersteller SVΞN
- Erstellt am
- Zur News: Nvidia GeForce RTX 3090 Ti: Erste Custom-Modelle von Asus, EVGA und Colorful
barrel428
Cadet 4th Year
- Registriert
- Jan. 2009
- Beiträge
- 106
Das kann auch heute noch so sein. 6600XT und 5600X kombiniert komme ich mit einem Gesamtsystem etwa bei 200W-250W Vollast raus.Axxid schrieb:Komplett irre. Vor ein paar Jahren hat der ganze Gaming PC noch <500W gebraucht.
Den dreifach höheren Verbrauch, höhere Geräuschemissionen, massiv höheren Anschaffungspreis und größeren Dimensionen (Mini ITX System) muss einem 4K erstmal Wert sein.
Ich bleibe daher bei Full HD und schaue mit Sorge auf diese Entwicklung.
Nebuk schrieb:aber wenn man sich die Leistungsaufnahme von über 500 Watt anschaut
Ja, das denke ich mir auch... mein persönliches Limit sind 160/170W (wie bei der RTX2060 / RTX3060).
Mit einem 500W Ölradiator lässt sich ohne Probleme im Winter ein 20m² Zimmer heizen. Für so eine Karte braucht es dann eine Wasserkühlung, wenn es ruhiger sein soll.
Laphonso
Vice Admiral
- Registriert
- Jan. 2012
- Beiträge
- 6.537
Das ist ja die Ansichtssache. Im Wortsinne, was Optik und visuelle Immersion angeht.OldZocKerGuy schrieb:Hat aber trotzdem noch immer gereicht.
Kingdom Come Deliverance z.B. sieht für ein 2018er Game z.B. noch top aus, vor allem dank HD Texturen und Ultra High Settings.
Aber diese Ultra High (bereits als "Future Hardware Settings" im Spiel deklariert) und Advanced Settings haben eine 1080Ti in UWQHD seinerzeit auf 15 (!) fps geschreddert (zur Erinnerung, das war die stärkste GPU als KDC released wurde) , eine 2080Ti auf unter 30 fps geknechtet und sogar mit der 3090 jetzt habe ich teilweise nur 50 fps, aber generell immerhin endlich über 60 im Schnitt.
Man "muss" nicht überall Ultra Settings haben, aber je nach für UWQHD und 4K werden die Leistungsanforderungen an die GPU weiterhin zunehmen und nicht weniger.
Eine 3090Ti wird für ein GTA VI maximiert optisch auch nicht mehr reichen. Vielleicht für 30 fps.
Palomino
Captain
- Registriert
- März 2005
- Beiträge
- 3.479
Nicht nur den Unternehmen, dem Käufer genauso, sonst wäre die Nachfrage nicht so groß.CB-Andi schrieb:Ich bin jedenfalls raus...... Ist den Unternehmen herzlich egal, das weiss ich.
Die Performance pro Watt zu vergleichen mag zwar eine bessere Effizienz bescheinigen, nur kann das nicht im Sinne des Umwelt- und Klimaschutzes zu sein. Ich sehe eher ein Problem darin dass es für die Hersteller keinen Grund gibt den Verbrauch insgesamt zu senken.SavageSkull schrieb:st doch eher die Frage, was du mit was vergleichst.
Nimmst du zb 200W und schaust dir die 200W Karte von der letzten Generation an, dann ist die aktuelle 200W Karte schneller und damit auch effizienter.
Was nützt mir die beste Effizienz wenn ich am Ende mehr Verbrauche als vorher? Das macht wirtschaftlich für mich als Verbraucher schon keinen Sinn. Bei den Haushaltsgeräten klappt es ja auch wunderbar, es gibt gesetzliche Vorgaben und die Hersteller finden passende Lösungen dafür. Am Ende habe ich die gleiche oder bessere Leistung mit weniger Stromverbrauch und Kosten.
Das kann ich mir bei CPUs und GPUs genauso gut vorstellen gäbe es eine Obergrenze wie viel ein Chip maximal verbrauchen darf. Ich bin überzeugt dass die Ingenieure in der Lage wären z.B. die Leistung einer RTX 3090 mit max. 200W zu erreichen. Dafür müsste man halt mehr in Forschung und Entwicklung investieren und dafür gibt es derzeit überhaupt keine Anreize.
- Registriert
- Jan. 2018
- Beiträge
- 19.038
Geforce FX 3090 Ti Excellence Accelerator with RTX Ready
Das wäre doch mal ein Name.
Sind die dann auch alle 10 MHz schneller, wie die Standard Ti?
Ähnlich der RX 6500?
Das wäre doch mal ein Name.
Sind die dann auch alle 10 MHz schneller, wie die Standard Ti?
Ähnlich der RX 6500?
Ergänzung ()
Die zählt als Supercomputer und darf nur unter Auflagen ins Ausland exportiert werden hustSturmwind80 schrieb:Dabei soll doch Ende des Jahres schon die 4000er Reihe erscheinen und das mit einem 2fachen Performance Zuwachs...
Ergänzung ()
Kurioser weise gab es tatsächlich mal Geforce Karten, wo der Nachfolger weniger Strom gezogen hat, trotz doppelten TaktPainkiller72 schrieb:Ich meine war erwartest du denn ? Wer mehr Leistung will, der muss halt leider auch den höheren Verbrauch in Kauf nehmen.
Balikon
Captain
- Registriert
- Juni 2008
- Beiträge
- 3.493
Innerhalb einer Architektur ja. Es gibt einen Sweetspot und je mehr Leistung man aus der Arch pressen möchte, desto weiter entfernt man sich von diesem Sweetspot.Rockhound schrieb:Nimmt die Leistung pro Watt eher ab mit den neuen Karten?
Wenn die Mining Leistung auch das doppelte ist, werden die wieder viele viele Monde nicht kaufbar sein.Sturmwind80 schrieb:Dabei soll doch Ende des Jahres schon die 4000er Reihe erscheinen und das mit einem 2fachen Performance Zuwachs...
Ergänzung ()
Ja und nein.hahaqp schrieb:Und hatte nur einen Bruchteil der Leistung.
90% plus hier nutzen ihren PC zum spielen. Und da hat sich grafisch wenig getan, nur die HW Anforderungen werden immer höher, um das gleiche wie vor 5 Jahren darzustellen.
Also braucht man die Mehrleistung nur für die Faulheit der Spieleschmieden.
Shio
Captain
- Registriert
- Okt. 2008
- Beiträge
- 3.758
andi_sco schrieb:Kurioser weise gab es tatsächlich mal Geforce Karten, wo der Nachfolger weniger Strom gezogen hat, trotz doppelten Takt
Nenn mir dazu mal ein Beispiel bitte, und komm mir jetzt nicht mit Hardware von vor 15 Jahren.
Ich beitreibe meine 3090 FE mit UV und leicht reduziertem Takt. Habe maximal 300W (peak) dümpelt bei Volllast eher so um die 280W rum.netbuster21 schrieb:Ich habe eine RX 6800 XT mit 300 Wat
Das ist richtig Klasse
freekymachine
Ensign
- Registriert
- März 2022
- Beiträge
- 161
Es gibt sie also doch
Naja gut... mann, nich das ne 3080 immer noch viel zu viel Geld kostet.. braucht man an 3090 TI gar nicht denken... is ja mittlerweile wie "neue Küche ? ooder Grafikkarte ?" - "3 Wochen Urlaub auf Bora-Bora ? ooder ne kleiner Klumpen Silizium?"
Naja gut... mann, nich das ne 3080 immer noch viel zu viel Geld kostet.. braucht man an 3090 TI gar nicht denken... is ja mittlerweile wie "neue Küche ? ooder Grafikkarte ?" - "3 Wochen Urlaub auf Bora-Bora ? ooder ne kleiner Klumpen Silizium?"
CDLABSRadonP...
Commodore
- Registriert
- Feb. 2021
- Beiträge
- 4.228
Ja. Aber dazu müssten sie was neues machen. Nvidia selber hat nur (nach bisherigen Infostand) für die 3090ti gar nichts eigens geleistet. Der hauptsächliche Unterschied wird der schnellere Speicher sein und augenscheinlich hat der das Ziel (mehr Performance bei gleicher Leistungsaufnahme) verfehlt, weshalb jetzt die ganze Karte mehr schlucken wird.CB-Andi schrieb:Wäre es nicht mal an der Zeit zu versuchen mehr Leistung bei gleichem Verbrauch zu generieren?
Nochmal klar formuliert:
Es ist keine neue Gen, es ist irgendwas zwischen mehr Karten in der gleichen Gen und leichter Refresh. Leichter Refresh Minus trifft es ganz gut.
Zuletzt bearbeitet:
(Nochmal klar formuliert)
Soll und "Ende des Jahres" sind die natürlichen Feinde, wenn man jetzt eine neue Karte haben will und nicht erst irgendwann in einigen Monaten. Wer aus der Corona Geschichte nichts gelernt hat und hofft auf eine 4090 zeitnah zum Release und halbwegs zur UVP, der tut mir jetzt schon irgendwie leid.Sturmwind80 schrieb:Dabei soll doch Ende des Jahres schon die 4000er Reihe erscheinen
Shio
Captain
- Registriert
- Okt. 2008
- Beiträge
- 3.758
CDLABSRadonP... schrieb:Ja. Aber dazu müssten sie was neues machen.
Was eine "Ti" noch nie war. Da wurde immer nur an der Mhz-Schraube gedreht und vielleicht noch ein bisschen mehr RAM draufgepackt und das wars.
Keine Ahnung wo auf einmal diese komischen Anforderungen herkommen, dass eine Ti jetzt was neues sein sollte...
- Registriert
- Jan. 2018
- Beiträge
- 19.038
Klar, weil es bei so alter Hardware ja auch immer problemlos funktioniert hat.Shio schrieb:Nenn mir dazu mal ein Beispiel bitte, und komm mir jetzt nicht mit Hardware von vor 15 Jahren.
Der Sprung von Geforce 256 zur 2 war einmalig, zeigt aber, das die Effizienz, auch durch einen besseren Fertigungsprozess, besser werden kann.
Und das erwarte ich irgendwo von allen drei großen Herstellern! Intel zähle ich schon mal dazu.
Das man mit den 100W der RX 6500 nicht weit kommt, empfinde ich schon etwas als traurig. Da wurde auf Teufel komm raus nur der Takt erhöht.
Und die Ryzen APU 4500 von @konkretor dürfte meinen 3500 leicht absägen. Allein durch mehr Effizienz.
JohnDeclara
Lt. Junior Grade
- Registriert
- März 2008
- Beiträge
- 485
Mir stellt sich auch die Frage, wozu man jetzt (Ende März) noch eine High-End-Ampere-Karte braucht für einen extrem hohen Preis...mit einer sehr hohen TDP? Die 4000er wird noch dieses Jahr released und die neuen Multi-Chiplet-GPUs von AMD auch (was ich als interessanteste GPU empfinde). Und ob dann verfügbar oder nicht, die Presse wird Benchmarks haben und man kann dann immer noch entscheiden ob es sich lohnt.
Zudem suche ich immer noch einen Adapter von 12VHPWR 16Pin auf die normalen 8er-Pin-Anschlüsse. Wer kauft sich denn für tausende Euro schlecht verfügbare High-End-Grafikkarten und stellt dann fest, dass er nochmal hunderte Euro für ein neues Netzteil ausgeben muss, was zwar vorgestellt, aber noch nicht auf dem Markt ist?
Und ein Adapter würde bei 3 x 8Pin auch nur 525W (3 x 150W + 75W) schaffen, wenn er in den Spezifikationen bleibt.
Zudem suche ich immer noch einen Adapter von 12VHPWR 16Pin auf die normalen 8er-Pin-Anschlüsse. Wer kauft sich denn für tausende Euro schlecht verfügbare High-End-Grafikkarten und stellt dann fest, dass er nochmal hunderte Euro für ein neues Netzteil ausgeben muss, was zwar vorgestellt, aber noch nicht auf dem Markt ist?
Und ein Adapter würde bei 3 x 8Pin auch nur 525W (3 x 150W + 75W) schaffen, wenn er in den Spezifikationen bleibt.
Ähnliche Themen
- Antworten
- 24
- Aufrufe
- 5.135