Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestGeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen
Dass die neuen Radeons aber an die GeForce RTX 3080 heran reichen werden, auch dazu liegen noch keine gesicherten Informationen vor. Einen Hinweis darauf liefert ausgerechnet Nvidia mit Leistung und Preis der GeForce RTX 3080.
Ja zu meiner Vega das stimmt, hätte mich hier besser ausdrücken sollen, ich meinte im Vergleich zur 2080S.
Habe meine Vega für mich nicht als als Referenz genommen, da diese so oder so deutlich von den neuen Karten geschlagen wird.
Wie gesagt, mehr als doppelte Leistung nach Datenblatt von der 2080S zur 3080 und davon kommen dann im Schnitt 60% an bei nicht RTX/DLSS Features, hier hätte ich mir etwas mehr erhofft, das wollte ich ausdrücken.
Bin der Meinung eines anderen Nutzers hier, der auch meinte, dass die 3080 normalerweise die 3080ti und die 3090 normalerweise die Titan RTX gewesen wäre. Heißt Nvidia weiß auch, dass AMD sie dieses Mal entweder besiegt oder sehr sehr nahe kommt.
habe das nur exemplarisch für alle ähnlichen/gleichen Meinungen zitiert, dass Nvidia eventuell „Angst“ hat vor AMDs Ankündigung bzw. deren kommenden Grafikkarten.
Eure Gedankenwelt leuchtet mir nicht wirklich ein. Denn, dann müsste AMD doch SOFORT schreien HALT WIR SIND SCHNELLER, LEISER UND EFFEKTIVER. Außer AMD sagt: Uns sind die die jetzt Nvidia kaufen und es nicht schaffen auf die AMD Vorstellung im Oktober zu warten können egal. Das kann ich mir nicht vorstellen, dass ein gewinnorientiertes Unternehmen so agieren würde und auch nur einen potenziellen Käufer liegen lasst.
Ich bin der Meinung so lange AMD nicht schnellst möglich darauf reagiert und/oder durchsickern lässt, dass ihr eigenes Zeug wesentlich besser ist oder zumindest eine ernstzunehmende Alternative ist - sie auch einfach nichts besseres haben.
Sehr interessant die Karte. Ich bin eigentlich zufrieden mit dem Outcome. Immerhin ist die Karte der Nachfolger der 2080 und nicht der 2080Ti.
Damit steht für mich fest, dass es eine 3090 Custom wird. Auf Fiepen und Knarzen habe ich keine Lust und auch die 80°C erinnern mich an den Vorgänger 2080Ti FE. Die 80°C sind mir persönlich etwas zu viel.
Die Leistung ist aber schon ganz ordentlich. Hängt natürlich stark vom FP32 Usecase ab.
Mit besseren Treibern, dürfte es da mit der Zeit nochmal 5% on Top geben.
Ich bin wirklich gespannt was AMD dagegen zu setzen hat.
Bei dem Verbrauch frage ich mich wo das hingehen soll.
Damit dürfte mein be quiet! Dark Power Pro 11 550W nicht mehr ausreichen...
Wäre interessant mal den Verbrauch des Gesamtsystems zu sehen und nicht nur der Grafikkarte.
Die Karte verbraucht 200 f*cking Watt mehr als meine 1080. Ja sie hat doppelte Leistung, aber eigentlich würde man erwarten, dass Effizienz sich verbessert. Sie ist doppelt so schnell und verbraucht doppelt soviel.
Gerade @ UHD dürfte der Vergleich schwierig sein denn bei FullHD sehe ich +70%, in 2.560 × 1.440 knapp unter 90% und spätestens in UHD dürfte der Radeon nicht selten der Speicher ausgehen und sie damit einbrechen lassen, siehe das recht konstante Verhältnis zur Vega64 und zur VII die auf einmal zulegt.
Also jetzt muss ich lachen, du verbreitest besseren Wissens doch hier wieder reinen Unfug.
In UHD limitiert in Anno selbst noch extrem die AMD CPU, da die 3080 nur 11% vor der 2080Ti liegt.
In den niedrigeren Auflösungen sieht man das CPU Limit dann extrem, logisch, dass die GPUs dort oben raus nicht die Leistung bringen können. In 4K geht der 5700XT quasi nie der Speicher aus und das im gesamten Testfeld...
Die 3080 wäre mit dem 10900K OC im Testfeld wesentlich schneller gewesen. In Full HD wohl 5 bis 10% in WQHD 5% und in UHD wohl mindestens noch 1%.
Darauf wird es wohl auch hinauslaufen. Wie du richtig sagtest, hier gehen potentielle Käufer weg. AMD ist in all der Zeit ziemlich kleinlaut. Ich erwarte daher nicht viel. Wird wohl wieder ein Rohrkrepierer.
Zuletzt bearbeitet von einem Moderator:
(Komplettzitat entfernt)
Ja sonst würde das wohl schwierig werden , nene alles gut es kommt ein Komplett Neuer Rechner und OLED als Monitor das ganze Setup hier hat fast 7 Jahre auf der Uhr...da wird es dann auch mal zeit, obwohl es in FULL HD bei den meisten Games noch sehr gut läuft für das Alter der gute alte 2600K
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
top test aber 370W sind schon ein Hammer, igor hat im 1ms bereich knappe 500w gemessen und das ist schon richtig Böse, wird wohl bad im Forum viele geben wo das NT einfach einfach abschaltet ...
Finde es immer wieder interessant wie viele mit eine 2080 Ti in der Signatur davon sprechen, diese Karte morgen ihr eigen nennen zu dürfen. Ich verstehe den Sinn nicht. Ich weiss, jeder soll machen was er will pipapo. Aber ich verstehe es einfach nicht ^^
Wenn du den Test wirklich gelesen hättest, wüsstest du das die Performance / Watt und somit die Effizienz gegenüber Turing und erst Recht gegenüber AMD´s Pseudo 7nm Prozess stark verbessert wurde, und stand Heute die beste Effizienz am Markt ist.
Soll AMD im Oktober mal zeigen, wie ihre Performance / Watt aussieht. Jede Wette schlechter als diese hier.
Von nichts kommt einfach nichts.
Things get better for AMD at 1440p. Here. the Ryzen is only 7% slower than the i9-10900K—as resolution is increased, the bottleneck shifts further and further from the CPU to the GPU. For each frame, the CPU workload is roughly similar, no matter the actual resolution. This means higher FPS are more CPU intensive in the same title, while lower FPS give the CPU room to breathe as the GPU is working as hard as it can. You also have to realize that resolutions like 1080p and 1440p are not exactly what the RTX 3080 was designed for—the RTX 3080 is a 4K card, as that's the resolution you need to ensure the card can run unconstrained on most CPUs.
Results at 4K are highly interesting. Here, the difference between AMD and Intel blurs—with just 1% between AMD and Intel, I would call them "equal", no way you'd be able to subjectively notice any difference. This is great news if you're looking to build a powerful 4K gaming rig with the GeForce RTX 3080. No matter whether you pick AMD or Intel, everything will run great.
Also ich finde es wirklich Klasse das Nvidia mir überlässt wie viel Watt ich verbrauchen möchte, bei Turing hat mich das Power Target immer gestört und dieses Mal macht Nvidia einfach den Hahn auf und man darf selbst Entscheiden ob ich die Karte mit der Leistung so betreiben möchte wenn es mir stinkt wird sie einfach gedrosselt bin froh das Nv diese mal keinen Riegel vor schiebt und ich dieses Mal kein extra BIOS flashen muss damit ich die Leitung die ich gerne hätte auch bekommen kann.
Auch die Grafikkarten der Ampere-Generation halten sich strikt an die im BIOS hinterlegte maximale Leistungsaufnahme. Die GeForce RTX 3080 Ti benötigt beim Spielen gemessen 322 Watt und damit innerhalb der Messtoleranz so viel, wie Nvidia mit 320 Watt vorschreibt. Nvidia hat damit die Leistungsaufnahme deutlich nach oben geschraubt, die GeForce RTX 2080 Super ist 81 Watt, die GeForce RTX 2080 Ti 52 Watt sparsamer – aber eben auch deutlich langsamer.
Ich verstehe deine Begeisterung für "einfach eine neue Generation" nicht. Weil der Preis nicht weiter abartig steigt?! Der Rest ist schlicht was bei einem Node zu erwarten ist. In 7nm TSMC wäre noch mal 1/3 weniger Chipfläche möglich. Was entweder den Verbrauch oder die Leistung besser machen würden.
AUTScarab schrieb:
Ich bin der Meinung so lange AMD nicht schnellst möglich darauf reagiert und/oder durchsickern lässt, dass ihr eigenes Zeug wesentlich besser ist oder zumindest eine ernstzunehmende Alternative ist - sie auch einfach nichts besseres haben.
Ja AMD hängt bis jetzt massiv bei der Architektur zurück aber die Karten sind nun mal noch nicht fertig. Bei der typischen Startqualität erübrigen sich solche Marketingaktionen. Außer Bilder können und wollen die überhaupt nichts bringen. Warum auch? AMD wird sich wie bei Navi nett an das Preisgefüge von NV anpassen.