Test Nvidia GeForce RTX 3090 im Test: Die größte GeForce für eine kleine Zielgruppe

Was mir durch den Kopf geht kommt von Nvidia doch noch eine TI und diese läuft vielleicht vom TSMC Band in 7 nm deutlich sparsamer und Taktfreudiger ich gebe die Hoffnung nicht auf, aber Apple hat sich wie man hört TSMC fast komplett gesichert also wie immer sehr unwahrscheinlich.
 
@Zock Apple nutzt doch für die anstehenden Geräte 5nm. Hat das Auswirkungen auf den 7nm Kapazitäten? Wahrscheinlich nicht?
 
Wenn die 3090 keine Titan Treiber hat, welche Vorteile hat sie dann gegenüber einer 3080 20GB? Es wird doch niemand ernsthaft 500€ drauflegen nur wegen 4GB VRAM und ein paar % mehr Leistung? Oder erhält die 3090 Spezialtreiber, die besser für Anwendungen sind als die Karten darunter aber schlechter als die der Titan?

Ich verstehe diese Einsortierung seitens Nvidia nicht ganz.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Ich hab heute nacht mal 4 Stunden Pubg gespielt auf 3840x1600, die Asus TUF 3090 OC ist im Vergleich zur 2080TI FE sehr leise und bleibt bei ca. 61 Grad Celsius, während die 2080TI FE bis 78 Grad Celsius hochgeht.
Oneplusfan schrieb:
Wenn die 3090 keine Titan Treiber hat, welche Vorteile hat sie dann gegenüber einer 3080 20GB? Es wird doch niemand ernsthaft 500€ drauflegen nur wegen 4GB VRAM und ein paar % mehr Leistung? Oder erhält die 3090 Spezialtreiber, die besser für Anwendungen sind als die Karten darunter aber schlechter als die der Titan?
Ich würde mal sagen, daß die neuen Micron 2GB DDR6X Chips teuer werden, und die 3080TI 1000--1200 € kosten wird.

Meine Tests mit der 3090 ergeben:
  1. ca. 55% Mehrleistung zur 2080TI
  2. 50-70% Mehrleistung für ML/DL zu Titan RTX und zur RTX8000
Das ist schon eine Hausnummer.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Toni_himbeere
Wuhuuuu meine 3090 kommt die Tage schon ist versendet :love:
 
  • Gefällt mir
Reaktionen: russianinvasion und SirDoe
Ich hatte wie ein Wahnsinniger mich ab 15 Uhr durch alle Shops gewühlt, vier Geisterbestellungen aufgegeben und alles wurde storniert ;( Irgendetwas mache ich falsch.
 
t3chn0 schrieb:
Also bei meiner GamingX Trio 2080Ti war in 3440x1440P bei 120 FPS Ende auf High. RTX läuft doch in Warzone gar nicht.
Also seit dem letzten NVIDIA Treiber läuft das ganz wunderbar ohne Framedrops.
 
Laphonso schrieb:
Vielleicht einfach nicht die mickrigen 10-15 % als neues 90er Tier für 900 Euro mehr..

Jetzt komm schon, nicht übertreiben, eigentlich sinds ja nur 5%.
Die Profi-Treiber benötigt man für Private Projekte unbedingt, schließlich läuft die Karte ja ohne Profi-Treiber nicht, schau dir das an.

https://www.igorslab.de/nvidia-gefo...r-dekadenz-wenn-der-preis-nicht-alles-ist/11/

Der Balken der Quadro 6000 sind oft doppelt so lang.

Wadenbeisser schrieb:
Das hat weniger mit Cherrypicking zu tuen.

Hast, recht, die workloads für die Profi-Treiber gebraucht werden, sind für Prosumer in der Überzahl.
Die Karte ist ohne Profi Treiber gar nicht zu gebrauchen.

BelneaHP schrieb:
Gebt doch diese unnütze Pressediskussion endlich mal auf. Am schlimmsten sind die, die anderen noch Ihr Hobby madig machen wollen, weil sie selbst zu geizig sind so viel Geld in die Hand zu nehmen.

Nein, nein.Das ist doch überhaupt nicht der Grund, den Leuten geht es doch nur darum andere von dummen und unnötigen Investments abzuhalten, dafür muss man dankbar sein. Ich ziehe den Hut!

rentex schrieb:
Wenn NV sagt, das die 3090 keine Titan ist, ist das eben so!

Danke für die Richtigstellung, des Kontexts, sehe ich genauso.

rentex schrieb:
Was bei euch nicht stimmt, das ihr sogar einer Herstelleraussage widersprecht, muss man nicht verstehen🙄

Ich hab die ganze Zeit davon gesprochen, dass die 3090 die neue Titan ist und sie nicht etwa mit der 2080Ti verglichen.
Du hast recht, da stimmt etwas nicht mit den Leuten, wie kann man sich nur über Leistungssteigerungen freuen und für sein Hobby Kohle drücken, das geht gar nicht. Wie schon jemand sagte, hat man die Kontrolle über sein Leben verloren. :)

Rückschlüsse auf Neid und Missgunst zu ziehen, liegt einem völlig fern.
 
Zuletzt bearbeitet von einem Moderator:
Onkel Föhn schrieb:
Und "alle" wären happy wenn die RTX 3080 mit 20 GB dann "NUR" 1200 € kosten würde !
Was vorher das Spitzenmodell (Titan mal außen vor) RTX 2080 Ti gekostet hat.

wieso soll Nvidia wieder so wenig nehmen?
  • 1399 Euro wären immer noch günstiger als 3090
  • fürs Marketing optimal: "20 GB" Version kostet dann nur das doppelte der "10 GB" Version, kein Premiumaufpreis
  • die alte Ti Bezeichnung dafür nutzen und insbesondere spricht man die 1080Ti/2080Ti Besitzer wieder an
  • man hat viel Puffer für eine spätere 3080S 10GB, die dann 5% schneller als die bisherige 3080 10GB wäre
  • für die 3080S 10GB dann 999 Euro nehmen und schon wirken die 1399 Euro für eine Ti als das unschlagbare Topangebot
 
  • Gefällt mir
Reaktionen: McTheRipper und Onkel Föhn
@Wolfgang Kurze Frage zu dem niedrigeren Power Target. Habt ihr den Takt beobachtet wenn die Frametimes fallen? Bzw. wie stark schwanken die Frametimes? Und, habt ihr es auch mit einer 3080 mit stark abgesenktem Power Target probiert? Ich tippe in Richtung 150W oder so. Fuer mich liest sich das so als wuerden GPU und VRAM um den Strom konkurrieren und der VRAM hat vorrang weil er sehr viel empfindlicher reagiert. Sobald eine kritische Schwelle ueberschritten wird, wird die GPU hart runtergetaktet, was dann zu den schlechten Frametimes fuehren wuerde. Koennt ihr das testen? Wuerde auch etwas Aufschluss ueber GDDR6x geben. Koennte natuerlich auch sein, dass sowohl GPU als auch VRAM Guete ziemlich weit unten liegt. Wuerde auch die Lastspitzen erklaeren. Das waere allerdings krass bei so einem alten Prozess.

KlaraElfer schrieb:
Ganz im Gegenteil. Wenn man vom Preis absieht, ist die Karte das beste und schnellste, was aktuell verfügbar ist.
Die Karte bietet unter RT Workloads 50 bis 80% mehr Leistung als die 2080Ti, das ist eine Leistungsvorgabe, die erst einmal zu Toppen ist. Das einzige was an der Karte momentan nicht gefällt, ist der Preis.

Ich mein, ich mag Kirschen ja auch, aber sie eignen sich nicht wirklich fuer eine generelle Aussage.

KlaraElfer schrieb:
Man bekommt ja auch viel dafür. Man bekommt 24GB Speicher und hat eine Karte, die eigentlich wegen Deep Learning und Profi Anwendungen, deutlich teurer sein müsste.

Erstens, nein, sie muss nicht teurer sein, zweitens steht sie im Deep Learning auch nicht so wirklich toll da. Sie kann sich nicht so absetzen wie man das hoffen wuerde. Und drittens, dafuer wurde dann auch in bisschen zu sehr geschnippelt.

KlaraElfer schrieb:
Das ist, mit Verlaub gesagt, reine Spekulation.

No shit Sherlock...

KlaraElfer schrieb:
Weil? Die 3090 schlägt die 2080Ti overall in 4K um 50%, diese Leistung muss man erst einmal generieren und erzielen. Das als "ernüchternd" oder "schlechte Leistung" abzukanzeln ist völlig albern.

Ich mein, man kann es feiern, wie du, oder man sieht das wie. Und da sieht es ueberhaupt nicht gut aus. Anderen die Meinung zu verbieten, ist allerdings albern.

KlaraElfer schrieb:
Ich hab die 3080 Eagle OC sowie Strix und Ventus seit ner Woche und habe bisher nicht ein Problem gehabt. Problem wird der hohe Takt bei OC sein und das Netzteil.

"Ich habe keine Probleme, also muessen es die anderen sein. Kann niemals der Hersteller sein!" Hast du dir die Augen mit Duct Tape zugeklebt oder was? Lies doch einfach auf PCGH nach. Die Karten ueberschreiten schon die PCI Spezifikation und saufen ueber 75W, komplett ohne OC. Und Lastspitzen ueber 400W sind auch voll in Ordnung... Waere die Karte von AMD wuerdest du wahrscheinlich komplett am Rad drehen, aber Nvidia, kein Problem.

KlaraElfer schrieb:
Kritikpunkte deinerseits sind ja kaum wirklich zu finden, das bedeutet für mich du findest die Karte ziemlich gut.

Erde an KlaraElfer, wie ist es so in der eigenen Welt?

KlaraElfer schrieb:
:D Du erwartest von AMD wohl den Heilsbringer, wenn du wieder so bashst.

Noe, allerdings wuerde es mich nicht wundern wenn AMD naeher kommt als so einigen lieb ist. Und es wuerde mich auch nicht wundern wenn AMD von der Effizienz her besser ist. Allerdings, im Gegensatz zu dir, sehe ich auch Probleme bei AMD mit ihrem kleinen Speicherinterface, sowas ist schwer zu kompensieren. Wenn hier jemand einen Heilsbringer sieht, dann bist das ziemlich eindeutig du.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und JohnTwoHawks
Kacha schrieb:
Noe, allerdings wuerde es mich nicht wundern wenn AMD naeher kommt als so einigen lieb ist.

OK, und wenn sie nicht rankommen sollten, dann bashen die einen AMD dafür und die anderen erzählen dann die ganze Zeit was von Preisleistung und andere freuen sich über mehr Konkurrenz am Markt, unabhängig wie schnell Nvidia und AMD performen.
Ergänzung ()

Kacha schrieb:
Ich mein, ich mag Kirschen ja auch, aber sie eignen sich nicht wirklich fuer eine generelle Aussage.

Deine Aussage war generell. "Sie ist enttäuschend".
Ich denke, dass bei vielen eher falsche Erwartungen und der hohe Preis das ausschlaggebende Kriterium sind, oder weil sie die Firma nicht leiden können.^^

Kacha schrieb:
Erstens, nein, sie muss nicht teurer sein, zweitens steht sie im Deep Learning auch nicht so wirklich toll da.

Wenn ich mir die Benchmarks von PhuV ansehe, dann scheint das schon so zu sein.
https://www.computerbase.de/forum/t...-turing-und-a100.1969797/page-3#post-24664134

Kacha schrieb:
No shit Sherlock...

Na weil du immer sagtest, dich interessieren nur Hard Facts.

Kacha schrieb:
Ich mein, man kann es feiern, wie du, oder man sieht das wie. Und da sieht es ueberhaupt nicht gut aus. Anderen die Meinung zu verbieten, ist allerdings albern.

Ja, du hast eine starke Meinung, aber keine Argumente. Du sagst die Karte sei enttäuschend, mehr kam halt nicht.


Kacha schrieb:
"Ich habe keine Probleme, also muessen es die anderen sein. Kann niemals der Hersteller sein!" Hast du dir die Augen mit Duct Tape zugeklebt oder was? Lies doch einfach auf PCGH nach.

Ich habe das Problem mittlerweile selbst mit der Strix nachstellen könne, insofern revidiere ich gerne meine Aussage diebezüglich.
 
Zuletzt bearbeitet von einem Moderator:
KlaraElfer schrieb:
Weil? Die 3090 schlägt die 2080Ti overall in 4K um 50%,
Nunja, ich erinnere an den Screenshot vorhin, bei der die 3090 sogar gestellt wird mit gleichen fps, von einer 2080Ti.
Auch wenn das ein oc Extrembeispiel ist, der "biggest generational leap" ist halt auch wieder entzaubert.

Wären es wirklich 50% und nicht nur wohlwollend 30-40% oc bereinigt , wäre ich freudiger, aber ja, ist halt Luxus 2080Ti Enthusiastensicht .

Ich hoffe, dass Zen 3 und ggf AiO Wasserkühlungen die Kingpin und Waterforce Modelle noch mehr aus einer 3090 rauskitzeln, ohne an den Powertargets oder Throttling zu scheitern.
 
ColinMacLaren schrieb:
Ich hatte wie ein Wahnsinniger mich ab 15 Uhr durch alle Shops gewühlt...

Ja, die FE wollte ich auch probieren, ging nicht in den Warenkorb.:mad:
Es gab dann die Tuf für UVP + 150.-, eine von Gigabyte, dann abends auf MF noch die Palit + Gainward mit je 1799.- also auch mind. +140.-....aber bessere Verfügbarkeit als die RTX 3080 vorige Woche.

Wo hast du bestellt? War da lagernd oder nur "vorbestellen" ?

Ich habe die Strix 3080er als Vorbestellung laufen, aber ob das was wird...? Sonst werde ich die FE 3090 öfters probieren, aber nur für die 1500.-
 
GERmaximus schrieb:
20% mehr Rohleistung münden in 10-15% mehr fps, passt doch...
800€ Aufpreis dafür hingegen nicht, dass ist halt der Preis für das schnellste was man bekommen kann
CuMeC schrieb:
enttäuschend. Werde auf AMD warten

Diese Karte ist nicht primär für's Gaming gemacht. Siehe igor's Lab
AMD wird auch keine Wunder vollbringen. Gaming in 5k und 8k ist ziemlicher Unsinn, allein schon aus dem Aspekt des Umweltschutzes.

@Wolfgang wäre es möglich folgende wichtige Aspekte dem Test hinzuzufügen:

CPU Auslastung über einzelne / alle Kerne im Mittel / Max um diesen Unsinn über CPU Limitierung bei Top CPUs zu beenden
Ferner ein Test wie bei Techarp.com der nachweißt, dass PCI-E 3 nicht im Nachteil gegenüber PCI-E 4 ist.
Es wird derzeit sehr viel unnötiger "Elektroschrott" erzeugt / oder eben gute Gelegenheiten für den CB Marktplatz, wie man es nimmt.
 
Che-Tah schrieb:
Hab keine bekommen...
bei Notebooksbilliger im Warenkorb gehabt... auf Zahlen geklickt und dan hieß es der Warenkorb sei leer.
Nun, du musst auf deinen Einkaufswagen auch besser acht geben!
Es gibt heutzutage competetive-extreme Gamer mit 360 Hz Monitor. Die sind sehr flink!
Mein Tipp: Bring deine Hardware bei derart riskanten Einkäufen vorher auf den aktuellsten Stand! ….:)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: McTheRipper und me@home
alQamar schrieb:
@Wolfgang wäre es möglich folgende wichtige Aspekte dem Test hinzuzufügen:

CPU Auslastung über einzelne / alle Kerne im Mittel / Max um diesen Unsinn über CPU Limitierung bei Top CPUs zu beenden
Das wäre tatsächlich möglich, auch wenn ich das lieber über die GPU Auslastung angeben würde.
PC-Welt, die ja auch CX zum Benchen nutzen und daher auch die Werte zur Verfügung haben, haben das in ihrem Test zur 3090 sogar angebeben.

Über 19 Spiele (Civilization VI haben wir an dieser Stelle außen vor gelassen) liegt die Auslastung der GPU in UHD bei 97 Prozent. In QHD fällt dieser Wert bereits auf 93 Prozent ab und beträgt dann in Full-HD nur noch 78 Prozent.

Test CPU war ein 9900K mit 5GHz Allcore, leider keine Info zum RAM...
 
me@home schrieb:
Ja, die FE wollte ich auch probieren, ging nicht in den Warenkorb.:mad:
Es gab dann die Tuf für UVP + 150.-, eine von Gigabyte, dann abends auf MF noch die Palit + Gainward mit je 1799.- also auch mind. +140.-....aber bessere Verfügbarkeit als die RTX 3080 vorige Woche.

Wo hast du bestellt? War da lagernd oder nur "vorbestellen" ?

Ich habe die Strix 3080er als Vorbestellung laufen, aber ob das was wird...? Sonst werde ich die FE 3090 öfters probieren, aber nur für die 1500.-

war lagerns bei computeruniverse und bei cyberport. wurde alles storniert. 1699 war aber auch mein Limit.
 
  • Gefällt mir
Reaktionen: me@home
Gestern 14:54 bei Alternate durch Zufall - bzw. Dauer-F5 ;) - die TUF OC
als "verfügbar" gesehen - gekauft - und heute 11:41 wurde sie von DHL auf ihren Weg gebracht. Ab morgen beginnt dann der Spaß.
Den Nvidia-Shop habe ich wohlweislich garnicht erst probiert.

Warum ich das hier schreibe? Weiß ich nicht - ich freu mich halt. War ne ziemliche Zitterpartie nach dem Chaos-Launch der 3080 ne Woche vorher.

Jetzt sollte erstmal wieder 2 Jahre Ruhe sein mit dem Thema. Noch so nen Launch machen meine Nerven nicht mit.:D
 
  • Gefällt mir
Reaktionen: Thorrior und Esenel
Ich hoffe für alle, dass das kein Turing Deja Vu ist mit GPU RMA. Die erste 2080Ti Iteration hatte die tollen Artefakte, da war es aber definitiv fehlerhafte Hardware.
 
Zurück
Oben