johnieboy schrieb:Jede AMD Karte der letzten Jahre wurde im Vorfeld in der Gerüchteküche gnadenlos überhypt, egal ob Fury, Vega oder Navi 1.
Ich würde sogar bis hawaii zurück gehen
Und ja, das ergebnis war naja
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
johnieboy schrieb:Jede AMD Karte der letzten Jahre wurde im Vorfeld in der Gerüchteküche gnadenlos überhypt, egal ob Fury, Vega oder Navi 1.
Botcruscher schrieb:256-Bit sind viel zu wenig um 80 Kluster zu versorgen. NV ist ja nun auch entgültig bei AMD Problemen angekommen: Rohleistung ohne Ende die nicht auf die Straße kommt weil ROPs und co limitieren.
Linmoum schrieb:dass 256bit nicht ausreichend sind
Ja aber der 3700x war doch letztendlich der sweetspot.domian schrieb:3800x, 3900x und 3950x waren längere Zeit nicht verfügbar. Sicher nicht so extrem wie gerade Ampere, aber es ist ja nicht so, als ob es bei AMD keine Lieferprobleme gibt.
Die hat doch das PCIE 4 Fach Interface oder nicht?GHad schrieb:@R@ph@el
Ähm... Hier Details: https://www.computerbase.de/forum/threads/mikroruckler-mit-asus-rog-strix-5600xt-bei-fullhd.1975493/
Ich zieh mir das nicht aus den Fingern und das Problem kann durchaus an mir oder meinem System liegen. Wenn du Ratschläge hast, her damit.
dersuperpro1337 schrieb:Ich bin und bleibe skeptisch.
Ich war beim Hype um Fury X dabei, welche ein Flop war.
Ich war beim Hype um Vega 64 dabei, welche ein Flop war.
Ich war beim Hype um Vega VII dabei, welche ein Flop war.
Sanjuro schrieb:Diese Angabe TBA macht micht ganz unruhig, ist das so eine neuartige Technik bei GPU´s ??
Laphonso schrieb:Das wäre jetzt auch nicht die unerreichbarste aller Hürden, welche die AMD engineers hier nehmen mussten.
Die 3080 sorgte nun nirgendwo für offene Kinnladen mit der Performance als deklariertes "Flaggschiff".
naja ich konnte weder mit der 1080ti noch was mit der 2080ti anfangen, ich hab mir gesagt (mit dem kauf des c9) dass meine nächste GPU unbedingt HDMI 2.1 haben muss, GPUs mit Hdmi 2.0 waren für mich daher damals schon "veraltet"Benji21 schrieb:Aus heiterem Himmel kann man mit ner 2080Ti einfach nichts mehr anfangen und neue Karten welche nur 10% oben drauf legen für einen wesentlich geringeren Preis sind dead on arrival obwohl vorher maximal ein Bruchteil aller Kunden für Grafikkarten so ein Modell gekauft hat.
Cool, danke für das Update !modena.ch schrieb:YouTubeAn dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Ich seh da nicht den Unterschied zu NVENC
Die Entscheidung die XTX zu bringen ist erst nach der 3090 Präsentation wirklich getroffen worden und die Karte kommt exklusiv von AMD und nicht von den AIBs. Die 3080 wird schon geschlagen werden in dem ein oder anderen Fall (wie es auch bei der 5700XT und der 2070S der Fall war -> wenn Sapphire oder Powercolor der Karte unbedingt die Sporen geben wollen halt) - Raster auf jeden Fall, Raytracing ist zwischen der Turing und Ampere Arch., und nochmal: das DLSS Äquivalent kommt erst später, aber bestehende Systeme bei AMD wurden aufgebohrt (CAS, FidelityFX, RIS) und sind nun deutlich besser nutzbar (halt mehr FPS als bei DLSS, aber etwas schlechter in der Bildqualität) Bei den Preisen wird es wohl im Schnitt günstiger sein - sie wollen die 3080 halt über den Preis deutlich schlagen - kommen sie mit der Karte dem Preis der 3070 zu nahe hat Nvidia ein Problem.SV3N schrieb:Unnötig langes Zitat durch Moderator entfernt
SV3N schrieb:Ich glaube, man sollte die Kirche mal im Dorf lassen.
Bei Erstauflage von RDNA konnte AMD mit der RX 5700 XT gerade einmal mit der RTX 2070 Super mithalten, die RTX 2080 war ein wenig schneller, die RTX 2080 Super unerreichbar und die RTX 2080 Ti auf einem ganz anderen Level.
Die RTX 3090 kann man jetzt mal außen vorlassen, denn selbst wenn die RTX 3080 20 GB 850 bis 1.000 Euro kosten wird, bleibt die RTX 3090 mit ihren 12 bis 15 Prozent Mehrleistung für Spieler weitestgehend uninteressant. Also heißt der Gegner für eine RX 6900 XT schlussendlich RTX 3080 20 GB.
Wenn AMD hier etwas auf Augenhöhe anbieten kann, 16 GB Speicher und eine bessere Effizienz auf der Habenseite hat und ggf. noch ein wenig günstiger ist, dann ist doch bereits viel erreicht.
Schneller als eine RTX 3090 (egal in welchem Szenario), 16 GB Speicher und günstiger als eine RTX 3080 10 GB Founders Edition (die 20 GB Version wird es nicht als Founders Edition geben), wird es in der Kombination so nicht geben.
Meine Prognose:
Eine grobe Richtung der Leistung hat AMD ja bereits mit den Benchmarks bei der Präsentation von Ryzen 5000 gezeigt. Nehmen wir an, sie haben die Katze noch nicht ganz aus dem Sack gelassen, dann schlummern da ggf. noch 10 Prozent Leistung und man wird sich also maximal leicht oberhalb der RTX 3080 platzieren können und das auch nur im Best Case.
- Leistung einer RTX 3080
- Leistungsaufnahme leicht unterhalb einer RTX 3080
- Preis leicht unterhalb einer RTX 3080 20 GB (die der erklärte Gegner sein wird)
Die beiden Flaggschiffe für Gaming werden zukünftig wohl RTX 3080 20 GB und RX 6900 XT 16 GB sein und leistungstechnisch auf Augenhöhe operieren. Alles andere wäre eine Überraschung, wenn auch nicht ausgeschlossen.
jk1895 schrieb:obwohl ihr Konkurrent einen Volltreffer mit der 3000er Serie gelandet hat.
ich "bereue" es mich damals für den 8700k entschieden zu haben nur weil amd niergends lagernd war, auch wenn die leistung des 8700k @ 5.1 wirklich sehr gut ist, mit amd hätte ich halt "jetzt" auch die 5000er nutzen können und hätte die modernere Plattform.BlackRain85 schrieb:Seh ich ganz genau so. Ihr habt ja auch nicht alle ZEN 1 /1+/2 gekauft, weil die CPU in Spielen der Brummer war. Sondern weil das gesamt Paket gestimmt hat.
Ganz einfach das Gerücht spricht von 255W für NAVI 21 XT und die 3080 benötigt 320Wdomian schrieb:Diese dargestellte Performance p. Watt ist aus meiner Sicht absolut unrealistisch. AMD kocht auch nur mit Wasser. 7nm hin oder her.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
sorryArrakisSand schrieb:Ganz einfach das Gerücht spricht von 255W für NAVI 21 XT und die 3080 benötigt 320W
255/320 = 0.80 x 100 = P/W 3080 80%
Laut Computerbase hat die 3080 ein Performancerating von 200% relative zur 5700XT (100%)
100% + (100% x 0.6 scaling 60%) = 160% / 1.9GHz x 2.4GHz = 202% bzw. eine P/W von 100% relativ zu den 80% der 3080.
Das alles ohne die Miteinbeziehung allfälliger IPC Steigerungen.
Mit zum Beispiel + 10% IPC fällt die relative P/W natürlich entsprechend noch schlechter für die 3080 aus.
Allerdings ist wie erwähnt das SI noch die große Unbekannte, falls diese limitieren sollte, sieht es für die 3080
doch schon deutlich besser aus im Vergleich zur Navi 21 XT.