News RX 6800, 6800 XT und 6900 XT: AMD veröffentlicht weitere Benchmarks in 4K und WQHD

Wer glaubt denn noch diesem Marketing BlaBla?

Für mich persönlich ist das eh alles völlig egal, weil die Karten deutlich zu teuer sind. Ich warte auf RX 6700(XT) und schaue mir deren Leistung an.
Bis dahin tuts die GTX1070 noch.
Und wenn mir die neuen Karten zu teuer werden, dann such ich halt was auf dem Gebrauchtmarkt. Hat bisher immer gut geklappt.
 
  • Gefällt mir
Reaktionen: mydayyy und Benji18
Ohne Prise Salz sollte man sowieso keinen Information im Netz glauben - AMD hat aber sowohl mit den ganzen Zen-Präsentationen als auch bei der 5700XT gezeigt, dass sie sich tendenziell eher zu pessimistisch als zu optimistisch darstellen - nicht wie gewisse andere Herrschaften, mit ihren "up to X2 the performance", hust.

Daher ist für mich das ganze "Stimmt sowieso alles nicht weil Hersteller" verallgemeinernder Stammtisch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: -Stealth-, Black*Sheep, KarlsruheArgus und 17 andere
Ich bestell die 6950 XTX....incoming!
 
  • Gefällt mir
Reaktionen: manfredham und fox40phil
@leipziger1979

das wäre aber schön blöd von AMD wenn sie reale Werte mit wunschvorstellungen ersetzen. Die spiele kann man ja später selber testen und vergleichen, also glaube ich den veröffentlichten Benschmarks.

Nvidia hatte doch von doppelter Leistung geplappert und schwadroniert................und am Ende waren es nur doppelte FP32 Leistung
 
  • Gefällt mir
Reaktionen: manfredham, Hercule Poirot, Ernie75 und 3 andere
sialickiz schrieb:
...und im AMD´s vorzeigespiel Forza Horizon 4 wurde rx56 von der uralten GTX1070 überholt, dank hervorragender Treiberoptimierung bzw. Treiberpflege wie auch in DOOM und vielen weiteren Titeln :schluck:

Ist es dann nicht umso erstaunlicher, dass dann sogar die 6800XT die 3090 um ein gutes Stück schlägt?
 
  • Gefällt mir
Reaktionen: Onkel Föhn, DannyA4, PS828 und eine weitere Person
Don Sanchez schrieb:
Ich kann gar nicht in Worte fassen, wie sehr mir Ray Tracing im Moment noch egal ist...
Bekommst halt keine "billigen" Spiegelungen mehr wie die letzten 25 Jahre. Immer noch ein Rätsel wie Unreal 1 anno 1998 das ohne RT geschafft hat...

Bei Marketingvideo zu Watsch dogs 3 hab ich mich halb tot gelacht. Ich werde zu alt um mich für einen Hype verarschen zu lassen.
 
  • Gefällt mir
Reaktionen: Neronomicon, Andre Prime, DDM_Reaper20 und 8 andere
AtotheX schrieb:
Bei BF5 in WQHD und DX11 soll sogar die 6800 ohne XT vor einer RTX 3090 liegen! Kann das stimmen?
Da bin ich auch skeptisch. Kann mir das nicht vorstellen, ausser bei der 3090 war FFR of. FFR bringt ne Menge in BFV.
DX12 Benches waeren realer zum vergleichen, da gibt es FFR nicht. DX12 bei BFV kann nicht ausgewaehlt werden ;-).
 
Finde den Vorsprung der 6800 zur 2080 Ti (und damit auch zur 3070) schon beachtlich - Titel wie SotTR gehören auch nicht gerade zu den AMD-Vorzeigetiteln.

Das lang ersehnte Aufmischen im High-End Bereich scheint wirklich in greifbarer Nähe zu sein.
 
  • Gefällt mir
Reaktionen: manfredham, Onkel Föhn, Hercule Poirot und eine weitere Person
Don Sanchez schrieb:
Ich kann gar nicht in Worte fassen, wie sehr mir Ray Tracing im Moment noch egal ist...
Im Augenblick ist das verständlich, weil Raytracing wegen zu wenig Power im Moment nur halbgar rüberkommt. Warte mal ab, bis die Leistung da ist. Wenn eines Tages die Spiele ausschließlich auf Raytracing zurückgreifen können, willst Du nichts anderes mehr.
Schau Dir z.B. mal komplett geraytracte (CGI-)Filme auf Youtube an.
 
  • Gefällt mir
Reaktionen: fox40phil und wolve666
ELMOKO schrieb:
glaube da kommt doch noch eine 3070 TI raus.. glaub nicht da NV das so hinnehmen wird..genau wie bei der 3090.. wird auch eine ti kommen?!?! oder ne super ..wer weis.
Sicher ein "Refresh". Wir haben fast ein Jahrzehnt nicht erlebt, dass sich nagelneue Nvidia Karten, "einreihen" mussten hinter AMD. Das war bisher andersherum

Nvidia muss, Nvidia wird darauf antworten

Die Kombination aus Paper Launch und 2 von 3 GPUs mehr oder weniger DOA habe ich bei Nvidia noch nie so erlebt.
 
  • Gefällt mir
Reaktionen: hurcos und Onkel Föhn
Ich bin bei allen die sagen "warten auf Benchmarks" (und Verfügbarkeit) ob sie nicht doch 2 FPS schlechter ist - aber das 16GB-Argument ist eigentlich schon meine Kaufentscheidung. Sorry
 
  • Gefällt mir
Reaktionen: -Stealth-, manfredham, ActionNews und 7 andere
leipziger1979 schrieb:
Ohne unabhängige Test glaube ich AMD nichts.
Die Lügen genauso wie alle anderen mit ihren "Benchmarks" und versprechen einem "Das blaue vom Himmel".

Hätten sie "Eier" würden sie unabhängige Test gestatten.
Aber ohne "Eier" wird das wohl nichts.

Die Werte die Nvidia Anfang September versprochen hatte lagen später auch deutlich unter dem was, Anhand der Folien und späteren Benchmarks bis zu 40%.
Und wenn bei AMD "nur" ca. 20% weniger rauskommen rutschen die ganzen Karten eine Stufe nach unten.

Hinzukommt der noch utopischere Stromverbrauch gegenüber Nvidia gepaart mit der Schummelei TBP statt TDP.

Und als Krönung die Preise, leider haben hier viele vergessen das diese in Dollar angegeben waren.
Das bedeutet das mind. 16%/19% Mehrwertsteuer draufkommen.

Wenn man diese ganzen Punkte zusammenrechnet sieht es gar nicht mehr so rosig für AMD aus.
Einziger Mehrwert bleiben dann nur noch die 16GB GDDR6.

Das würde auch erklären warum Nvidia die intern für Dezember geplanten 16GB/20GB Versionen erst einmal gestrichen hat.
Absolut korrekt ! Wer´s glaubt wird selig.:heilig:
Alles Promo-Benchmarks bis dato. Die richtigen, nicht geschönten kommen erst am 18.11 und im Dezember (6900XT) :schluck:
 
@decibeL

so schaut es aus, ich will auch eine potente Karte "out of the Box" und nicht einen Nvidia Account erstellen damit ich deren Server benötige um mit z.b. DLSS eine flüssige Framerate in hohen Auflösungen zu haben. Das ist für mich Augenwischerei, da wenn dieses Projekt von Nvidia nicht einschlägt, ich in Zukunft dieses Featutre nicht mehr nutzen kann weil die Server abstellen.

Eine Internetverbindung braucht man für den Einsatz von DLSS übrigens nicht. Die errechneten Spieleprofile des Supercomputers werden über ein Framework, also eine Art Programmiergerüst, namens NGX für die Grafikkarte bereitgestellt. Dieses wird bei der Installation des Grafikkartentreibersgleich mit installiert.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Gottis71 und derSafran
Bis genug Leistung da ist... Kann ich vorher endlich UHD@120Hz bekommen um nicht mehr mit den beschissenen Matsch-Texturen und dem Würg-AA leben zu müssen? Das wurde mal für 2014(!) angekündigt. Über OLED sprechen wir gar nicht erst. Zukunft... meh.
DP2.0 und HDMI 2.1 sind erst mal viel wichtiger. Letzteres läuft ja auch irgendwann.
 
sialickiz schrieb:
So viel zum Thema : NVIDIA optimiert nicht mehr für ältere GPU´s :D
Ja, point taken, aber zur Wahrheit gehört auch wie die Pascal GPUs unter DX12 gelitten haben.
Ich erinnere daran wie die 2080 zum Release als "nur 1080Ti" -Level gesehen wurde, und dann kamm z.B. The Division 2.
Wer sich das traurige Bild der 1080Ti (ich meine, die hat direkt 10% verloren auf die 2080, brutal) da mal rückwirkend anschauen möchte, realisiert, dass in den DX12 Titen mittlerweile sogar eine 2070 der 1080Ti auf die Pelle rückt, die 2070 Super hat die 1080Ti mehr oder weniger dort einkassiert.

Alles eine Frage des bigger pictures.
 
  • Gefällt mir
Reaktionen: Toni_himbeere
18.11 + Sapphire, dann wird 6800 XT gekauft ! :love:
 
  • Gefällt mir
Reaktionen: Onkel Föhn
seth777 schrieb:
Interessant wie sich die GPU Preise entwickeln, die DIE werden immer kleiner und werden immer gunstiger da man mehr davon pro Wafer erhaelt aber die GPU selbst werden immer teurer und teurer, heute ist die Mittelklasse bei 500$,
2011 war Highend noch bei 499$.

Um es anders zu formulieren, ausgehend von der DIE Size und dem Endkunden Produkt hatte man 2011 349$ gezahlt wofuer man heute gut 700$ zahlt

Das ist eine Simplex-Rechnung, die nicht mal eines Milchmädchens würdig ist ;) .

Die R&D Kosten bei den Herstellern wie nVidia, AMD und vor allem den Foundries wie TSMC kennen nur eine Richtung: Nach oben. Zwar kann man bei kleinerer Strukturgröße mehr DIEs aus einem Wafer gewinnen, aber gleichzeitig steigt in allen Belangen der Aufwand an R&D, um überhaupt funktionierende DIEs zu produzieren.

In diesem Artikel findest Du eine Tabelle zu den Kosten pro Wafer, also der Preis, den TSMC pro Wafer von seinen Kunden verlangt. Für einen "leading edge" 5nm Wafer legt der TSMC-Kunde fast $17,000 auf den Tisch, während es vor drei Jahren noch weit weniger als die HÄLFTE (fast nur ein Drittel) war.

Das Fertigen in immer kleineren Strukturen hat nun mal seinen Preis, auch wenn man pro Wafer mehr Chips gewinnen kann. Hochkomplexe Chips mit Milliarden von Schaltkreisen sind aber nun mal keine Weihnachtsplätzchen bei denen Deine Rechnung und die darauf basierenden Schlussfolgerungen eventuell schon eher zutreffen könnten.
 
  • Gefällt mir
Reaktionen: Kastinuk, Zwenki, Gnodab und 15 andere
Irgendwie sind die Diskussionen immer die Gleichen in jedem Artikel, Bericht, etc...:

Sind nur AMD Marketing Folien bla bla
AMD hat bessere Preise hehehe
Raytracing ist Nvdia besser blub blub
AMD ist insgesamt besser als nvdia laber rhabarber
Aber mit DLSS ist nvdia viel schneller rummel grummel
Dafür hat AMD viiiel mehr Speicher ramm tamm tamm
AMD schummelt ja nur mit smart access und Rage mode paperlapapp
dafür hat nvidia paperlaunch ätschbätsch
freut euch nicht zu früh amd vielleicht auch kicher kicher....
usw...

Vielleicht würde es vielen Leuten besser gehen mal kurz die Augen zu schließen und einmal tief durchzuatmen.

Aufgrund der aktuellen Fakten liegt eins sehr Nahe:

Wir haben endlich Konkurenz im High-End Segment und sowohl AMD und Nvdia haben da etwas zu bieten.
Die hohe Nachfrage beider Parteien scheint aktuell vorhanden zu sein. Punkt.

Die Tendenz geht eindeutig dazu, dass es dieses Jahr extrem schwer fallen wird, wer wirklich Leistungssieger ist.

Es wird von Spiel zu Spiel und Feature zu Feature unterschiedlich sein.
Mal deutlicher und mal ganz knapp.

Freut euch doch einfach, dass Beide oben mitspielen - ob Grün oder Rot.
Soll sich doch jeder die Karte kaufen, die er für seine Zwecke braucht.

Und AMD und Konsolen werden wie bereits angedeutet an ähnlichen Mechanismen arbeiten wie DLSS.
Da muss man natürlich mal ganz entspannt abwarten.

Hofft einfach mal alle, dass die Lieferbarkeiten bei Grün und Rot vor Weihnachten laufen.
Denn letztendlich zählt es, wer so ein Teil auch in den Händen halten kann und nicht erst 2021.
 
  • Gefällt mir
Reaktionen: quaaaak, Aekoric, Glen Farclas und 58 andere
Philanthrop schrieb:
@decibeL

so schaut es aus, ich will auch eine potente Karte "out of the Box" und nicht einen Nvidia Account erstellen damit ich deren Server benötige um mit z.b. DLSS eine flüssige Framerate in hohen Auflösungen zu haben. Das ist für mich Augenwischerei, da wenn dieses Projekt von Nvidia nicht einschlägt, ich in Zukunft dieses Featutre nicht mehr nutzen kann weil die Server abstellen.


Das ist kompletter Unsinn was Du da schreibst. Vom ersten Satz bis zum letzten! Von welchen Servern redest Du da? Für DLSS wird weder ein NV Account noch eine Anbindung an einen Server benötigt!
 
  • Gefällt mir
Reaktionen: McFritte, stevefrogs, foo_1337 und eine weitere Person
Zurück
Oben