Bericht RX 6800 (XT) und 6900 XT: AMD greift Nvidia RTX 3070, 3080 und 3090 an

SPECIALIZED- schrieb:
Stimmt ich mache das auch viel lieber noch mit anderen Luxusgütern, aber es ist auch nicht schlimm das es keiner kapiert, bin es auch leid Menschen aus der ....... zu erklären warum man dieses oder jenes macht oder mich dafür zu rechtfertigen warum ich dies oder jenes Kaufe!
Oder möchtest du vielleicht auch noch ne Liste von Autos, Immobilien, Luxusuhren etc. haben??? :lol:

Ekelhafte Neid Gesellschaft Deutschland!

Du brauchst dich vor niemanden zu rechtfertigen, kauf das was du willst, diese laberei habe ich auch oft genug weil ich ein iphone nutzer bin weil ich unvorstellbarer weise das iOS und deren Möglichkeiten super finde und es einfach läuft.

Das ist ne Konsum gesellschaft, ob die Leute tatsächlich ne 3090 brauchen, denke ich nicht aber wenn man sichs Leisten kann und will why not.

hab auch lange und viel in Teure HW investiert zahlt sich aber bei mir nicht mehr aus ich spiele nicht mehr so oft, ich investiere es jetzt in Essen (ist ja bekanntlich der Sex des alters xD) od. Ausflüge, Haus, Auto etc..
 
  • Gefällt mir
Reaktionen: SPECIALIZED-
aappleaday schrieb:
Habe ich es überlesen oder was kommt als DLSS Derivat? Gar nichts?
Watch Dogs zeigt ganz gut, dass es ohne fast nicht mehr geht in den hohen Auflösungen:

https://www.hardwareluxx.de/index.p...s-legion-rtx-und-dlss-benchmarks.html?start=1

Da muss doch eine Antwort von AMD dazu kommen, oder sehe ich das falsch?

Ansonsten hat das einen sehr schalen Beigeschmack...

Haben Sie hier doch erwähnt?

Es wird der Offene Standard im neuen Direct X DirectML genutzt, ist die Gegenantwort zu DLSS.
 

Anhänge

  • d.jpg
    d.jpg
    100,3 KB · Aufrufe: 138
  • Gefällt mir
Reaktionen: mc_ace
emulbetsup schrieb:
Das ist doch keine Angeberei lieber Benj. Zu diesem exklusiven Club der 10% Topverdienenden, zu dem du dich ja zählst, gehört doch auch der durchschnittliche alleinstehende Realschullehrer.

Zeit.de - Oberschicht? Ich doch nicht!

Ob man sich jetzt darauf etwas einbilden oder eine "Eure-Armut-kotzt-mich-an-Attitüde" vor sich hertragen möchte, muss dann aber doch jeder selbst entscheiden.

Bei dem was hier rumläuft, trifft "Eure Armut und Neid Kotzt mich an" eigentlich sehr gut zu!
 
Das Testen wird auch immer komplexer.
Intel + Nvidia
Intel + Nvidia RTX
Intel + Nvidia DLSS
Intel + Radeon
Intel + Radeon RTX
Intel + Radeon Super Resolution
AMD + Nvidia
AMD + Nvidia RTX
AMD + Nvidia DLSS
AMD + Radeon
AMD + Radeon RTX
AMD + Radeon Rage
AMD + Radeon Super Resolution
... Und bestimmt noch Kombinationen davon.
 
  • Gefällt mir
Reaktionen: -Ps-Y-cO-, m2020, tidus1979 und 4 andere
emulbetsup schrieb:
Das ist doch keine Angeberei lieber Benj. Zu diesem exklusiven Club der 10% Topverdienenden, zu dem du dich ja zählst, gehört doch auch der durchschnittliche alleinstehende Realschullehrer.

Zeit.de - Oberschicht? Ich doch nicht!

Ob man sich jetzt darauf etwas einbilden oder eine "Eure-Armut-kotzt-mich-an-Attitüde" vor sich hertragen möchte, muss dann aber doch jeder selbst entscheiden.

Man sollte sich zumindest nicht dafür schämen müssen, aber wir waren eigentlich bei Grafikkarten. ;-) Keine abbekommen? Also Grafikkarte natürlich.
 
  • Gefällt mir
Reaktionen: Malar, SPECIALIZED- und The_Jensie
Bei dem ganzen "Leaks" und Gerüchten konnte man so was ja ahnen. Aber das hört sich ja richtig gut an! Alle 3 bieten 16GB und wenn die Leistung fast dieselbe ist, kann NV fast einpacken.
RT und ein vergleichbarer Dlss soll ja auch kommen. Wenn das mal nichts ist.

Einzig die Preise und kleinere Karten fehlen.
 
bad_sign schrieb:
Ich sehe es so das nur 6800XT und 6900XT einen Nachfolger für die 1080TI darstellen. Nvidia hat keine Nachfolger im Portfolio
naja 3080 mit beiden Augen zugedrückt auch....aber wofür wenn es Alternativen hat
 
professorfutura schrieb:
Soll ja auch Leute geben die ihren armen Charakter nicht mit teurer Hardware kompensieren müssen :schluck:
Ich stelle mir gerade vor wie in einer Kneipe jemand sein 1.000 € Telefon auf den Tisch legt, der nächste seine Goldarmbanduhr daneben schiebt und der dritte holt eine 6900XT aus der Jacke und knallt sie dazu.
---
Ne, eine Charakterkompensation durch teure Hardware wird nichts.
 
  • Gefällt mir
Reaktionen: Nefcairon, Zwirbelkatz, Epix und 3 andere
Benji18 schrieb:
diese laberei habe ich auch oft genug weil ich ein iphone nutzer bin weil ich unvorstellbarer weise das iOS und deren Möglichkeiten super finde und es einfach läuft.

Kommt mir bekannt vor mit dem Iphone, als wäre es vor ein paar Tagen gewesen beim 12 Pro release...hmm komisch da wurde ich auch wieder gefragt wie kann man nur...
 
KlaasKersting schrieb:
Das ist eine 3090. Zieh davon noch mal 10-15% ab, dann hast du eine 3080/6800 XT. Man kauft doch keine GPU für 700-2000€ und einen teuren 4K Monitor, um dann bereits jetzt gerade so mit 50-60 FPS rumzugurken.

Naja, der Vergleich hinkt etwas. Eine Technik ist halt schneller wie die andere in der Entwicklung und es war schon immer so, dass die (egal bei welcher Auflösung) Rechenleistung der Darstellungsmöglichkeit hinterher hinkt. Selbst bei 640x480 und kleiner sind wir noch weit von Fotorealistisch bei 120fps entfernt...

Die jetzt hohen Auflösungsmöglichkeiten und Hz zahlen mit 100 und mehr machen wenigstens Druck in der Entwicklung auf der gpu Seite.
 
SPECIALIZED- schrieb:
Ekelhafte Neid Gesellschaft Deutschland!
Hier liegt noch fast die ganze Knete vom nicht machbaren Urlaub rum und bevor noch mehr pleite gehen, muss das Geld zügig investiert werden.

Mein Problem ist eher, dass ich jetzt maximal verwirrt bin, was ich kaufen soll.

Hab vor 2 Wochen meine 1080ti noch für ne Schweinekohle vertickt und humpel jetzt seitdem auf dem Intel 630 rum und nix von dem Zeugs ist lieferbar. Es suckt!
 
Krautmaster schrieb:
Denke erst zum eigentlichen Test weiß man mehr. Nen wirklichen Hype hat das Event heute bei mir jedenfall nicht ausgelöst.

Meinst du? Mich hat das tatsächlich mehr Gehyped als die Vorstellung von Ampere die war für mich eine klare Entäuschung.

Ganz ehrlich AMD hat es endlich geschafft eine passende Antwort für Nvidia zu haben und ob die Karte jetzt 5% Langsamer od. 5% schneller ist mir eigentlich egal, wichtig ist (und das haben wir in vielen Jahren hier schon öfters diskutiert) wer bietet das "rundere gesamtkonzept" der macht den Sellingpoint und hier könnte es tatsächlich seit Jahren wieder einmal AMD heißen.
 
  • Gefällt mir
Reaktionen: m2020, mc_ace, Gerry18 und eine weitere Person
mylight schrieb:
Die 1080Ti ist super gut gealtert, genau das wofür NVIDIA steht.

Weil sie mehr RAM hat als die RTX3080. Mit 8GB würde sie auch eher zum alten Eisen gehören
Wie du siehst: mehr RAM kann positiv sein
 
  • Gefällt mir
Reaktionen: LäuftBesser2000
mylight schrieb:
Also Sapphire ist der einzige Hersteller den ich niemals wieder kaufen würde. 3 Karten hatte ich über 10 Jahre verteilt von AMD Sapphire alles waren furchtbare Krachmacher, bekomme noch heute Hörsturz + Tinnitus wenn ich den Namen lese.
Die Sapphire 5700XT Nitro+ ist eine der besten Karten der letzten AMD Grafikkarten Generation was Lautstärke, Kühlung, Leistung und Power angehen. Kann ich selbst bezeugen.
Gibt auch etliche Tests dazu (CB, Igor,...)
Aber vielleicht hattest du auch einfach Pech mit deinen Modellen.
 
  • Gefällt mir
Reaktionen: Derenei, Wintermute, Monstranz und 3 andere
Bin den von den Grafikkarten Releases dieses Jahr etwas enttäuscht. Im unteren und mittleren Preissegment bis jetzt keine einzige Neuvorstellung. Gefühlt liegen die Prioritären von AMD und Nvidia im höheren Segment.
Hätte mich über eine neue AMD Karte mit RTX2080 Leistung für 300 - 350 EUR gefreut. Na ja, mal abwarten was noch so kommt in den nächsten Monaten.
 
  • Gefällt mir
Reaktionen: konkretor und MGFirewater
oeMMes schrieb:
Hier liegt noch fast die ganze Knete vom nicht machbaren Urlaub rum und bevor noch mehr pleite gehen, muss das Geld zügig investiert werden.

Mein Problem ist eher, dass ich jetzt maximal verwirrt bin, was ich kaufen soll.

Hab vor 2 Wochen meine 1080ti noch für ne Schweinekohle vertickt und humpel jetzt seitdem auf dem Intel 630 rum und nix von dem Zeugs ist lieferbar. Es suckt!

Ich würde es daran abhängig machen ob für dich Raytracing und DLSS wichtig ist, wenn ja 3080/3090 wenn Nein bekommst du bei AMD mit RDNA 2 ebenfalls eine sehr gute Karte die sogar Günstiger ist :schluck:
 
SPECIALIZED- schrieb:
Kommt mir bekannt vor mit dem Iphone, als wäre es vor ein paar Tagen gewesen beim 12 Pro release...hmm komisch da wurde ich auch wieder gefragt wie kann man nur...

das hört man als iphone nutzer ständig, ist fast so aufdringlich wie Vegetarier die in fast schon religöser eiferung versuchen einen zu bekehren. Ich hab meine Gründe, dachte lange ne smartwacht ist useless dann hatte ich eine Apple watch und wie smooth alles in einnader läuft gefällt einfach. Das hast du bei Andorid nicht dafür ists oft billiger (mittlerweile auch nicht mehr).
 
  • Gefällt mir
Reaktionen: The_Jensie
Syndlogic schrieb:
Bin den von den Grafikkarten Releases dieses Jahr etwas enttäuscht. Im unteren und mittleren Preissegment bis jetzt keine einzige Neuvorstellung. Gefühlt liegen die Prioritären von AMD und Nvidia im höheren Segment.
Hätte mich über eine neue AMD Karte mit RTX2080 Leistung für 300 - 350 EUR gefreut. Na ja, mal abwarten was noch so kommt in den nächsten Monaten.

Da werden doch noch ein paar Karten vorgestellt werden, denke schon das die o.g wunschkarte von dir dabei sein wird!
 
  • Gefällt mir
Reaktionen: Mcr-King und Syndlogic
@Benji18
ja gut auch für das musste man doch eigentlich nur den Kopf anschalten oder? Aus 40CU werden 80, und AMD hat nen guten 7nm Prozess zur Hand.

Dass das gerade mit den teils hoch im Kurs gelegenen Taktraten mindestens für die 3080 reichen muss war finde ich klar. Takt und Prozess sei Dank. Min RX5700 *2 Leistung.

Die einzige wirkliche Engineering Meisterleistung ist der Cache sofern er gut funktioniert und das SI entlastet. Aber naja, okay, Caching is nichts sonderlich neues - AMD kann sich wohl erlauben recht viel Cache in 7nm mit auf den Die zu packen. Aber der Ansatz gefällt mir, könnte die unterm Strich günstigere und effizientere Lösung sein.

Nicht wirklich ein Wort zu RT und zu DLSS Alternativen, eine in meinen Augen größere Innovation als ein Cache im Chip. Hier wäre es gut wenn AMD zeitnahe auch wirklich mit zieht.


@Infinity Cache
man verkauft das marketingtechnisch natürlich schlau als "Innovation" aber es ist eher ein Resultat der Kosteneinsparung. Ich denke eher dass AMD auch aus wirtschaftlichen Gründen nicht beim SI in die Breite gehen wollte. Zudem hat man so den günstigeren Ram.
Ein größerer Cache auf dem Chip selbst (Cache gibts da ja schon quasi immer) kann aber auch gute Vorteile haben, keine Frage, gerade ggf. latenztechnisch und Bandbreite eben dann wenn die Daten aus diesem Cache und nicht aus dem VRAM kommen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Der Nachbar und Benji18
t3chn0 schrieb:
Der Müll ist halt die Gsync Geschichte bei mir. Ich kann einfach keine AMD Karte an meinem Monitor anschließen und auf ein key Feature verzichten. Der Scheiß Monitor hat 2800 EUR gekostet, die 3090 satte 2100EUR, wo soll das hinführen? Dafür holen sich andere 4 komplette Rechner.

Dieses Fass ohne Boden ist kaum noch erträglich. Mir ist durchaus bewusst, dass ich eine Teil von diesem Fass bin.

:kotz: Techno, richtig hart kotzen! ;) :(

Was ist das für ein Monitor? 3840x2160/1600 mit FALD?

Mir geht es auch so, auch wenn der G-Sync-Monitor nur 470€ gekostet hat. Naja, muss ich auch auf Freesync umsteigen, aber die Anzahl der Monitore, wo die Schaltzeiten auch bei wenig Hz taugen, ist ja beschränkt. Bleibt nur der S2721DGF, aber da liest man immer von Problemen.

Naja, wenigstens habe ich (noch) nicht nach RTX3080 gegeiert und fahre mit meiner Asus 2080S Strix auch noch gut, zumal der 8700K eher der Flaschenhals ist. Eine AMD-CPU wollte ich mir vielleicht auch anschaffen.
 
  • Gefällt mir
Reaktionen: t3chn0
Zurück
Oben