Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestGeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen
Verlegbarkeit.
Der Adapter, der den FE's beiliegt, ist nur ein Notnagel. Der lässt sich nicht gut verlegen.
Der bammelt dann an der Karte runter und man bekommt ihn nirgendwo unter.
Ich frage mich, ob es ein gemoddetes VBIOS geben wird, mit dem man sich dauerhaft die 50W weniger Leistungsaufnahme und 4% Leistungseinbußen holen kann. Wäre für mich zumindest sehr interessant. Ich bin kein Freund von Overclocking Tools, da diese dauerhaft im Hintergrund laufen müssen.
Könnt ihr bitte die 3090 auch @1080p testen? Ich finde es trotz CPU Limitierung immer wieder erstaunlich was Grafikkarten hierbei noch bringen können. Ist zwar zu 4k weniger aber dennoch deutlich vorhanden!
Gute Frage,
Da CB nur die Leistungsaufnahme von der Grafikkarte alleine gemssen hat, hätte ich ergänzend auch gerne gewusst wie hoch die Gesamtauslastung ihres Sytems ist (Idle & Last), oder vergleichbare Systeme mit deinen vorgeschlagenen Konfigurationen.
Nur wer hat denn mit der Pistole hinter NVIDIA gestanden und sie gezwungen das Speicherinterface der 3080 auf 320 Bit zu beschränken? Die 3080 und die 3090 nutzen den gleichen Chip ( GA102), jetzt erzähl mir nicht die könnten nicht auch eine 3080 mit 384 Bit Speicherinterface und somit 12 GByte Speicher produzieren. Würde mich nicht wundern, wenn das Speicherinterface beider Karten völlig identisch ist und bei der 3080 per "Jumper" oder Bios künstlich beschränkt wird
ja ok das es rein Technisch möglich gewesen wäre... sicherlich.
Verstehe die Argumentation.
Jetzt aber so wie die Karte in die Fertigung geht, funktioniert das eben nicht.
Die Beweggründe werden wir wohl nie von oberster Stelle erfahren... spekulieren können wir sicherlich.
Eigentlich sollten doch die Qualitäts Netzteile ab 500W mit entsprechender Qualifizierung 80+ [Platinium / Gold / Silber] auch eine RTX 3080 Problemlos versorgen können!
Mal ein Zitat von Hardwareluxx: " Etwas Hintergrundinformation: Den PCIe 3.0 vs 4.0 Vergleich haben wir mit einem Ryzen 5 3600 und X570 gemacht. Die GeForce RTX 3080 Founders Edition lief da zusammen mit einem 500-W-Netzteil."
Sicherlich nicht der Idealzustand, sollte aber zumindest die Leute beruhigen, die selbst mit 750W Netzteilen schon Panik schieben.
Verlegbarkeit.
Der Adapter, der den FE's beiliegt, ist nur ein Notnagel. Der lässt sich nicht gut verlegen.
Der bammelt dann an der Karte runter und man bekommt ihn nirgendwo unter.
Frage ich mich auch ein bisschen.
Aber es wird natürlch durch die Tatasache, dass man AMD jetzt eine Karte vor die Nase setz, die ziemlich genau doppelt so schnell ist, wie deren aktuelles Flagschiff, erst richtig rund.
Aber warten wir halt mal, was AMD jetzt bringt.
An eine Verdoppelung der Leistung glaube ich nicht so wirklich.
Das wäre dann schon ein sehr gewaltiger Schritt.
Naja es sind eigentlich 88% und 0,2%Perzentil 70%. Habe hier den WQHD Test genommen, weil der UHD Test für nen Mittelklassse Chip unfair ist. Doppelt so schnell ist das nicht. Und AMD aktuelles Flagschiff (nein nicht die Radeon 7, weil veraltete Architektur) ist eine Mittelklasse Karte. Grade der RTX3080 Test zeigt mir, das AMD's Big Navi es definitiv schaffen kann ganz nah an die RTX3080 zu kommen !
Nur diese DLSS Geschichte ist natürlich etwas, das ein Problem werden könnte, wenn AMD da nichts auf die Beine gestellt hat das ähnlich funktioniert.
Aber warten wir halt mal, was AMD jetzt bringt.
An eine Verdoppelung der Leistung glaube ich nicht so wirklich.
Das wäre dann schon ein sehr gewaltiger Schritt.
ggü. der 5700 ( die XT ist zu unökonomisch@Stock eingestellt >>Sweetspot)
-10..20% mehr Takt
-10% Arch.(falls net AMD auch die Anzahl der ROP´s+FP32 gravierend ändert, dann >10%)
-...>100% mehr CU´s
Beim PL mach ich mir mit 7nm+ gar keine Sorgen, sprich 2x5700 abzgl. besserer Fertigung sollte net ins PL laufen.
(ggf. wird AMD wohl auch wieder PL+50 freischalten "just for Fun")
Bleibt nur die Frage ob BN voll ausgelastet werden kann.
Das wäre dann aber nur die Effizienz bei dieser Einstellung aber nicht die der Karte selbst denn durch die Unterforderung ist dien Warscheinlichkeit hoch das sie auch noch runtertaktet, wie wir alle wissen sollten steigt dadurch zwansläufig die Effizienz erheblich weil dabei auch die Spannung für den Chip sinkt.
Das ist eben einfach nur ein extrem geschöntes Ergebnis. Das gleiche Spiel gab es dann mit dem Vergleich der Kühler Lautstärke bei dem man sich gleich zweifach darum gedrückt hatte sie @ Standard zu vergleichen da man beide Kühlsysteme mit der gleichen Verlußtleistung verglichen hat. Das ist natürlich wenig sinnvoll wenn zwischen beiden Vergleichskandidaten @ Standard 60 - 70W liegen und die Kühlsysteme natürlich auch darauf ausgelegt sind denn der größere Stromfresser wird den Vergleich garantiert gewinnen weil dieser entweder unterfordert oder der Kontrahent überfordert wird und den Lüfter entsprechend weit aufdrehen muss. Dazu kommt natürlich auch das auch hier die 250/260W Karte für den "Vergleich" auf mindestens 270W hochgesetzt wurde.
Durch solche Marketing Stunts bei denen der Vorgänger künstlich schlechter gemacht wurde hatte sich das Ergebnis letztendlich schon angedeutet.
Oder auch nicht. Ich denke in absehbarer Zeit werden auf Europäischer Ebene die klimaschädlichen Aspekte der Computer zu Beschränkungs-/Verbotsphantasien führen. Ich sollte mich mal an die hiesigen Abgeordneten wenden (egal welcher Partei). Nächsten Jahr ist Wahljahr und wir müssen die Welt retten.
Das ist nicht spaßig gedacht. Angesichts unseres politischen Klimas sind Beschränkungen nicht unwahrscheinlich.
Mach das mal. Wie soll das Verbot aussehen? Kein PC darf mehr als 500 Watt haben oder 600 oder doch nur 60? Wo ist die Grenze und wie will man das durchsetzen?
Wenn Computer, dann gehören Server zu den Umweltverschmutzern, der durchschnittliche PC (in erster Linie nämlich Notebooks) frisst ja kaum 60 Watt. Wir reden hier von einer Nische in einer Nische, Highengaming mit 300 Watt GPUs am Desktop macht nun mal nicht jeder. Und da gibts nen ganzen Haufen anderer Hobbys die wesentlich umweltschädlicher sind. Zumal die Karten ja auch zum Arbeiten verwendet werden können und dann stoßen wir ne ganz andere Tür auf.
Viel schädlicher sind übrigens die Konsolen, einfach weil die meist 24/7 durchlaufen und damit am Ende Musik von Spotify ins Kinderzimmer gestreamt wird. Hat MS mal ne Studie zu gemacht, die Xboxen weltweit verballern im Jahr mehr Strom beim rumideln als wir PC Gamer verzocken können.
Und es wird dabei vergessen, dass jede Steckverbindung wieder eine Schwachstelle ist. Übergangswiderstände usw.
Am saubersten und zielführendsten ist ein 12pin, der DIREKT in BEIDEN 8pins des Netzteils mündet, ohne Zwischengepfriemel.
Der mitgelieferte Adapter von nVidia ist lediglich ein Notnagel, damit man das Ding in jedem PC nutzen kann und nicht erst warten muss, bis der NT-Hersteller liefert. Eine Dauerlösung kann und sollte das nicht sein.
Aber es wird natürlch durch die Tatasache, dass man AMD jetzt eine Karte vor die Nase setz, die ziemlich genau doppelt so schnell ist, wie deren aktuelles Flagschiff, erst richtig rund.
Ich sehe da kein Problem. Die 5700(XT) ist wie die 2070 ja eh "nur" Mittelklasse. Ein echtes "Flagschiff" war da ja Mangelware.
Mit der angekündigten Effizienzsteigerung wird da wohl ordentlich was gehen.
Microsoft schrieb:
@Jan
Bitte auch die Leistungsaufnahme des gesamten Systems messen.
Mich würde schon die genaue Leistungsaufnahme der Karte interessieren.
Auch würde mich mal ein direkter Vergleich von 2-3 verschiedener Energieeffizienzklassen von Netzteilen bei der gleichen Aufgabe interessieren.
Ich selbst habe da schon sehr interessante Auswüchse feststellen können.
So wie ich @Wolfgang kenne, wird er sich nach dem ersten Irrsinn (3080 FE, 3080 CD, 3090 FE (?), 3090 CD) noch einmal interessanten Teilaspekten separate widmen. Aktuell sieht er zu, dass er über Wasser bleibt und dabei trotzdem ordentlich abliefert.
Ampere oder: Wie man die Leistungsaufnahme innerhalb nur zwei Generationen fast verdoppelt.
1080 = 176W -> 3080 = 322W
Prügelt man eine Turing auf denselben absurden Stromverbrauch, ist Ampere wahnsinnige 15% schneller.
Wow, da kann der Winter ja kommen.