News AMD Radeon RX 6000: Navi 21 XT erhält große Vorschusslorbeeren

Nicht zum ersten Mal gibt es aus teils wilden Gerüchten (zu) große Vorschusslorbeeren

Kaffeesatzleserei und Tarotkartenlegen von der netten Dame aus dem Zelt vom Jahrmarkt scheint bei AMD Jüngern und CB als seriöse Quelle zu dienen?
Naja, ich ware auf unabhängige und wirklich seriöse Tests.
 
Auch wenn ich keine haben will....wünsche ich das AMD Grafikkarten richtig gut werden.....und Nvidia mal zurück auf dem Tepich bringen, so das sie merken das die Leute sich nicht ständig verarschen lassen brauchen.
 
Taxxor schrieb:
Die 5700XT hat aber doch mit einer 6800XT oder 6900XT überhaupt nichts zu tun. Diese Karte sollte nie eine 2080 oder 2080Ti erreichen.

Das ist mir durchaus bewusst. Ich meinte vielmehr, dass AMD mit RDNA nichts hatte, was man gegen 2080, 2080 Super oder gar 2080 Ti stellen konnte.

Weshalb man auf Augenhöhe mit einer RTX 3080 schon ein gutes Ergebnis einfahren würde.

iron mike schrieb:
Du solltest dich der Kritik hier schon stellen und nicht einfach Postings zensieren (wenn du das warst)

Erstens gibt es hier keine Zensur sondern wenn überhaupt Hausrecht und zweitens wird dieses Hausrecht von der Moderation und nicht von den Redakteuren ausgeübt.

iron mike schrieb:
Und dann noch der fade Beigeschmack das du hier früher unter dem Usernamen Ryzen unterwegs warst... ist ja sehr unparteiisch... da will wohl einer das die Radeons ganz toll werden und bleibt nicht objektiv.

Wie jetzt? Ich bin es doch, der sagt, wenn die 6900 XT auf 3080-Niveau landet, ist das schon ein Erfolg.

Ich habe doch deutlich gesagt, dass ich dieses „die 6900 zerstört die 3090“ für absolut unrealistisch halte.

Auch in der Meldung, die unmissverständlich Gerüchte zitierten, ist herauszulesen, dass die Vorschusslorbeeren (zu) groß sind. Tut mir Leid, aber die Kritik kann ich nicht nachvollziehen.

Nochmal: Ich erwarte keine 6900 oberhalb der 3090 und eine 6900 oberhalb der 3080 mit mehr Speicher, besserer Effizienz und dann auch noch signifikant günstiger wird es auch nicht geben.

Sollte die 6900 die 3080 schlagen und dabei merklich effizienter sein, dazu deutlich mehr Speicher bieten, dann wird sie auch preislich auf dem Niveau liegen, auf der die 3080 20 GB erwartet wird.

Zu diesem „du hießt aber mal RYZ3N“ nur so viel: Ich habe aktuell eine EVGA GeForce RTX 2070 Super FTW3 Ultra im System und zuletzt zwei 3090 und eine 3080 zum testen hier.

Dazu laufen hier 3 von 5 Systemen im Haushalt mit Intel-CPU. ;)
 
  • Gefällt mir
Reaktionen: Hatch, eyedexe, derSafran und 9 andere
Ich habe mein frei verfügbares Geld gerade zu einem Gutteil in einen neuen Ryzen und das Pixel 5 investiert. Da ist jetzt erstmal Schicht mit Neuanschaffungen.

Aber die News zu Big Navi sind vielversprechend. :) Weiter verfolgen, Tests lesen und dann wird es vielleicht nächstes Jahr was mit einer neuen Navi.
 
Volkimann schrieb:
Und deshalb haben sie die Shield rausgebracht? Und deshalb haben sie die Nintendo Switch mit ihren Chips versorgt?

Sony und Microsoft haben sich gegen Nvidia entschieden, weil deren APUs schlicht nicht leistungsfähig genug waren für die Anforderungen.
Dein Fehler ist, dass du einen SoC nicht von einer APU unterschieden kannst. Nvidia hat keine APU und hat auch nicht bei Sony/MS gepitched.

Volkimann schrieb:
Nvidia hat natürlich gesagt das sie kein Interesse gehabt hätten, zuviele Entwickler bla bla. Da lässt man natürlich den größten Gaming Markt links liegen. Sicherlich. Klingt auch besser als "Wir hatten leider kein passendes Produkt im Portfolio" 👀
Nvidia konzentriert sich auf den Pro Markt. Da sind die Margen wesentlich höher.
 
Zuletzt bearbeitet von einem Moderator:
Ich finde den Takt an sich jetzt nicht sooo unglaubwürdig in sich selbst.

Eir wissen alle, dass 2.4Ghz absolut problemlos selbst mit Low Power Designs machbar sind. 4 Ghz sind am oberen Ende kein Problem.

Es ist eben eine Frage des Designs.
Big Navi könnte als Hochtaktdesign ausgelegt sein.
Mit den entsprechenden Nachteilen, die das mit sich bringt.
 
@mgr R.O.G. Die selbe Frage könnte ich auch mit jeder beliebigen Person stellen. Um deine Frage aber zu beantworten. Nein, du musst mich nicht kennen. Ich arbeite aber als Software Entwickler und bin vor ungefähr zwei Monaten dazu übergegangen Leaks auf Twitter zu posten.
 
  • Gefällt mir
Reaktionen: derSafran, s0UL1, eyedexe und 4 andere
patrickschur schrieb:
@ArrakisSand AMD bezieht sich mit der TGP auf die GPU und den GDDR6 Speicher. Alles andere, was sich auf der Grafikkarte befindet, ist dort nicht mit eingerechnet.
Aha! Der TDP/TGP Punkt ist also noch nicht ganz klar.
Dann rechnet man lieber mit 300W Boardpower, dann kanns keine negative Überraschung geben:daumen:
Ich bin bei BN nur noch am schmunzeln, die ganze Zeit :D
Hoffentlilch wird AMD BN mit Zen3 auf den Markt bringen (05.11)
 
  • Gefällt mir
Reaktionen: yummycandy
jk1895 schrieb:
[...]
Für mich bedeutet das, dass sie Nvidia nichts entgegen bringen können.
Die Ernüchterung wird für viele sehr schmerzhaft sein.

wie die stromrechnung der 3000er nutzer? 🤣
 
  • Gefällt mir
Reaktionen: Kodak, -Ps-Y-cO-, PS828 und eine weitere Person
So toll werden die neuen AMD Karten nicht werden. Die Treiber und das ganze Firlefanz drumrum sind einfach noch nicht auf NVIDIA Niveau.
 
Langsam steigt bei mir die Sorge, dass der Hype bald für sehr große Enttäuschung sorgen wird, weil die z.T. absurd hohen Anforderungen und die Erwartungen nicht erfüllt werden können. Leider verstärkt sich dies ironischerweise gerade noch aus dem Grund, dass durch manche Umstände AMD im Vorteil sein dürfte (Prozess, Cache).
Ja, RDNA2 ist performant, aber "einfach so mal eben" Jahre des Rückstands in einer Gen aufzuholen oder gar den Konkurrenten zu übertrumpfen scheint mir doch extrem gewagt.
(Andererseits... RDNA2 hat durchaus Gaming-Leistung, das war bei GCN eher nicht so der Fall. Das war schon vor der PS5 so.)

Slightly OT:
SV3N schrieb:
Erstens gibt es hier keine Zensur sondern wenn überhaupt Hausrecht
Heißes Eisen. Informationskontrolle (genau das ist "Zensur" nämlich, durch ändern, löschen oder verschieben von Beiträgen bspw.) ist nicht nur durch staatliche Autoritäten sondern durch im Prinzip jedermann möglich, auch wenn rechtlich gesehen die Informationskontrolle bei privaten Angeboten wie Foren nicht als "Zensur" bezeichnet wird und auch rechtlich null Bestand hätte. Wie gut dass es hier immerhin das Aquarium gibt, etwas was viele andere Foren gar nicht haben...
 
derSafran schrieb:
Nicht, dass es nochmal so eine Vega-Enttäuschung gibt :/
Ach, ich bin bei der Vega56 erst eingestiegen als der Mining-Boom vorbei war. Für ~300€ eine Red Dragon bekommen die mit UV + OC leise sowie schnell genug ist und nicht übermäßig säuft. Drei Spiele gab es auch noch dazu.

Die Vega ersetzte vor allem den 3,5 GB kleinen VRAM einer GTX 970 und die ist deutlich schneller gealtert als die Vega (und den Vorgänger der GTX, eine HD 7870). Ich sehe es als Vorteil an dass GCN / RDNA2 in den Konsolen läuft, damit sind die Portierungen gefühlt länger auf "alten" AMD Chips lauffähig als bei den Geforce-Karten.

Bin gespannt wie gut die RDNA2 Karten wirklich sind, Konkurrenz belebt das Geschäft. Und ohne Konkurrenz gäbe es 2030 bei den CPUs noch für 350€ maximal 4C/8T mit 100 MHz mehr jedes Jahr :rolleyes:.
 
SV3N schrieb:
Auch in der Meldung, die unmissverständlich Gerüchte zitierten, ist herauszulesen, dass die Vorschusslorbeeren (zu) groß sind. Tut mir Leid, aber die Kritik kann ich nicht nachvollziehen.

Zu diesem „du hießt aber mal RYZ3N“ nur so viel: Ich habe aktuell eine EVGA GeForce RTX 2070 Super FTW3 Ultra im System und zuletzt zwei 3090 und eine 3080 zum testen hier.

Dazu laufen hier 3 von 5 Systemen im Haushalt mit Intel-CPU. ;)

Eine Bewertung von Gerüchten ist eigentlich das absurdeste der ganzen Geschichte.
Du weist doch gar nicht wie die Grafikkarten performen werden, wie kannst du dann Gerüchte so kommentieren das es angeblich so nicht kommen wird? Hast du etwa Insider Informationen?

Eigentlich hast du Recht, die Kritik von mir hätte anscheinend andersrum sein müssen, du möchtest anscheinend AMD schlecht machen und traust Ihnen das nicht zu oder ist das schon wieder falsch!? Nochmal, anhand von Gerüchten, die du auch noch einordnest. Das ist pure Spekulation.

Achso, meine Kritik war außerdem das ich das hier alles schon als einzelne News gelesen habe und du das hier einfach nochmal zusammenfasst und persönlich einordenst, was beides nichts bringt. Da die Daten genauso gut ausgedacht sein können.
 
HerbertGozambo schrieb:
Nvidia hat geliefert, was man erwarten konnte und nicht viel mehr. Ehrlich gesagt bin ich enttäuscht von dem Leistungs-/Energieverbrauch-Ergebnis. Sie hatten so viel Zeit und keine Konkurrenz. Das Spiel, dass man kurz zu einem niedrigen Alibi-Preis geliefert hat - und nun melken die Board-Partner zum üblichen Schema - war zu erwarten ... „Konnte ja keiner ahnen, dass die Nachfrage, blabla.“ Erbärmlich.
seh ich auch so, der tolle nvidia untypische Preis war doch nur in der Theorie, praktisch wird die breite Allgemeinheit davon keine Karte zu dem angegebenen Preis in absehbarer Zeit bekommen und muss zu den Boardpartnern wechseln, da kosten die Karten dann einiges mehr..
letzt hat ein User hier 899€ für ne 3080 bezahlt (schon ein krasser Unterschied zu 699,- FE)..
im Kopf haben aber scheinbar immer noch viele, dass die Karten ja sehr günstig sind..

Gesamtpreis 1000-1050€ für eine RTX3080 + neues benötigtes 750/850W Netzteil + der hohe Stromverbrauch sind für mich aber alles andere als günstig!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hatch, Crankson und Waaargh
Tyga schrieb:
So toll werden die neuen AMD Karten nicht werden. Die Treiber und das ganze Firlefanz drumrum sind einfach noch nicht auf NVIDIA Niveau.

Kann sein, muss aber nicht. Wie sah das nochmal mit den Problemen während des Betriebes von RTX 3080 aus, wenn der Takt zu hoch ging? Oder wie lief es mit der Auslieferung der zwei in Deutschland verfügbaren Karten? Aus Papier gebastelte RTX3080 erreichen auf Ebay und anderen Handelsplattformen nie höhere Preise. Ich habe das Gefühl, dass in Kenntnis einer besseren Grafikkarte von AMD noch schnell der eigene Murks auf den Markt geschmissen wurde, in der Hoffnung die dann umfunktionierten Betonsteine zu verkaufen.
 
  • Gefällt mir
Reaktionen: Kodak
bad_sign schrieb:
Aha! Der TDP/TGP Punkt ist also noch nicht ganz klar.
Dann rechnet man lieber mit 300W Boardpower, dann kanns keine negative Überraschung geben:daumen:
Ich bin bei BN nur noch am schmunzeln, die ganze Zeit :D
Hoffentlilch wird AMD BN mit Zen3 auf den Markt bringen (05.11)
Ich würde wie bereits in einem Vorangegangenen Gerücht auf eine TBP von 275W tippen.
Ist auch logisch die anderen Komponenten abseits der GPU und des Speichers werden wohl kaum mehr als 20W benötigen da gibt es auf Igors Lab auch aufschlussreiche Beiträge dazu.
Die 300W kannst du dann wieder für die XTX auspacken.
 
  • Gefällt mir
Reaktionen: danyundsahne
Ist auch nicht unwahrscheinlich dass die AIB Karten später kommen und erstmal nur die FE verfügbar ist. Das was man vom kühler bisher weiß ist , dass der weder besonders Laut noch unnötig kompliziert ist wie der von Nvidia
 
kaiwo78 schrieb:
Kann sein, muss aber nicht. Wie sah das nochmal mit den Problemen während des Betriebes von RTX 3080 aus, wenn der Takt zu hoch ging? Oder wie lief es mit der Auslieferung der zwei in Deutschland verfügbaren Karten? Aus Papier gebastelte RTX3080 erreichen auf Ebay und anderen Handelsplattformen nie höhere Preise. Ich habe das Gefühl, dass in Kenntnis einer besseren Grafikkarte von AMD noch schnell der eigene Murks auf den Markt geschmissen wurde, in der Hoffnung die dann umfunktionierten Betonsteine zu verkaufen.
Da muss man mE etwas weiter denken. AMD genießt gerade wegen ihren tollen CPUs einen großen Hype. Das ist super. NVIDIA ist aber nicht INTEL. NVIDIA macht seine "Hausaufgaben" und liefert neben der reinen FPS-Spieleleistung auch viel drumherum. Das ist ungleichmäßig schwieriger für AMD den "Thron" zu erklimmen.
 
  • Gefällt mir
Reaktionen: foo_1337
Zurück
Oben