News Teaser: AMD zeigt die Radeon RX 6000 mit RDNA 2

Adzz schrieb:
Kann ich mir nicht vorstellen. Sie werden schon raytracing kerne verbauen. Sonst ist es klar das sie die nächsten jahre kein gegenstück zu dlss herausbringen. Für ki deeplearning und echtzeit raytracing berechnung sind die normalen kerne nicht schnell genug.

https://www.hardwareluxx.de/index.p...auf-rdna-2-mit-raytracing-beschleunigung.html

Microsoft attestiert den Raytracing-Beschleuniger eine geringe Chipfläche im Vergleich zur um den Faktor drei bis zehn höheren Leistung durch deren Unterstützung. Dies gilt auch für die Machine-Learning-Beschleunigung, die bei einer Skalierung der Auflösung unterstützen soll. Plant AMD hier ein Gegenstück zu NVIDIAs DLSS?
 
Mister L. schrieb:
Das verallgemerst du jetzt.
Wollte ja damit auch nicht sagen, dass beides der gleiche Personenkreis ist. Es fällt eben nur auf, dass in Diskussionen häufiger der Verbrauch von AMD Hardware kritisiert wird, bei Intel/Nvidia aber eher mit "nicht so wichtig" argumentiert wird.
 
dynastes schrieb:
Mit RDNA hat die Aufholjagd aber ja nun einmal gerade erst begonnen - und auch die Zen war zunächst nicht die enorme Waffe, die Zen 2 nun ist.
AMD ist mit den ZEN´s stark auffen CPU Markt, der Sexy-Faktor kommt vorallem durch Intels Schwäche-Langzeitphase. nVidia spielt eine andere Rolle auf dem GPU Markt und der Weg für AMD ist ein anderer.
Quervergleiche passen nicht.
 
Wadenbeisser schrieb:
@xexex

Mit anderen Worten du willst mittels schüren von irgendwelchen Ängsten und der Forderung nach überzogenen Erwartungen sicherstellen das möglichst wenig User die Tests der Karten abwarten und möglichst viele gleich die neuen Geforce Karten kaufen.

Sorry wer so "dumm" ist und darauf reinfällt dem ist ee nicht zu helfen

1) Wenn man wissen will was P/L Mäßig passt dann wartet man so od. so ab, early adaopter sind erfahrunggemäßig die Beta tester für vieles.
2) Glaube ich dem Marketing keinen millimeter egal welche Seite, daher warten wir auf echte Tests
3) die Leute die jetzt eine GPU Brauchen kaufen Sich das was Sie jetzt brauchen, die Leute die Warten können warten ab, mindestens bis zum Release der 3060Ti denn diese Karte wird im Preisbereich ~250- 350€ liegen und damit für viele interessant und wird die Butter und Brot karte werden.
 
Tom_1 schrieb:
Lustig, 2x8 Pin Stromstecker und keiner zerreißt sich darüber, im grünen Lager hat es sofort geheißen 2x8 Pin ist zu viel, wie kann man nur.
Lächerlich.

Angesichts der TDP von 3080 und 3090 sollte man nicht so sehr in Glashaus mit Steinen werfen, oder hattest du etwa kein Mathematik in der Schule?
Exakt 2*8 Pin bietet sich Nvidia. Du kannst aber dann gerne Mal Custom Modelle Marke AMP! Kingp1n und Konsorten anprangern. Die verbraten noch mehr ;)


Zur News.
Der Kühler sieht okay aus. Ich bin auf das PCB Layout Gespannt und wo die Karte landet.. Rein rechnerisch sollte es mit dem 350 W Setup für die 3080 reichen. Und wer DLSS haben will, der greift eh zu grün. Ich kaufe 2021, also mit Wayne
 
  • Gefällt mir
Reaktionen: Tanzmusikus, cookie_dent und Floppes
@Rockstar85
Abwarten, Igor sagte das die AMD Karten sich bei ~ 275Watt einordnen werden, erfahrunggemäß ist der Samsung prozess nicht so effizient wie der von TSMC sieht man ja auch bei den iphones damals beim X als es von Samsung als auch von TSMC Chips gab und die Samsung chips mehr Strom benötigt haben und heißer wurden.

Ich würde einfach mal abwarten was wirklich am 28igsten vorgestellt wird danach kann man genau Abschätzen wo sich AMD einordnen wird (hoffentlich).
 
  • Gefällt mir
Reaktionen: Schorsch92, Rockstar85 und Tanzmusikus
dante1975 schrieb:
AMD= Nintendo und NVIDIA = Playstation.. Sry aber der vergleich kam mir grade.:D

...
Aber bei Nitendo steckt doch Nvidia drin und in der Playstation AMD ;-)
snickii schrieb:
Die Referenz wäre schon wegen den Anschlüssen raus, brauche 3x DP. :freaky:
Aber allein wegen dem Fortnite Quatsch ist die Karte bei mir raus.
Der USB-C beinhaltet ja auch ein DP Signal also benötigtst du für 3x DP nur ein anderes Kabel.
Microsoft schrieb:
AMD hat bisher immer auf die Kacke gehauen und ist damit unsanft gelandet, jetzt gehen sie viel ruhiger an die Sache. Ich hoffe das dies ein Zeichen ist das sie die gleichen Vortschritte machen wie in ihrem CPU Geschäft.
...
Der "Lautsprecher" ist ja inzwischen bei Intel ich bin da gespannt ob die Intel GPUs das leisten was versprochen wurde.
 
  • Gefällt mir
Reaktionen: Hatch, snickii, Holindarn und 3 andere
HighPerf. Gamer schrieb:
Wenn die raytracing beschleuniger sich die Ressourcen mit den normalen beschleunigen teilen behaupte ich das kein gegenstück zu dlss herauskommen wird. Ki deeplearning während des spielens würde sonst die Ressourcen der cus in anspruch nehmen. Das wäre natürlich ersteinmal ernüchternd da ich glaube dass die architektur sich für zwei oder mehr jahre nicht verändern wird. Wurde das so entschieden damit der platz effizienter genutzt wird mit normalen beschleunigern?
 
@Schorsch92
Ich tippe auf nein, den Koduri hat bei AMD auch nicht Abgeliefert was er großspurig versprochen hat.

@Adzz
naja seit der VII unterstütz AMD DirectML damit hätte man eine alternative zu DLSS
 
cypeak schrieb:
gddr6 ist keine "budgetlösung" - wer sagt das?
die karte muss nicht "aufregend" oder "interessant" sein und sie muss auch kein" sexappel" haben -sie muss zum angestrebten preispunkt ordentlich performen ohne die lautstärke eines hubschraubers zu haben.
ob sie das mit gddr6 oder gddr6x oder har hbm macht, ist gänzlich uninteressant.

gddr6 ist wie gddr5 der mainstream speicher, der in erster linie das preiskriterium erfüllt und zwar bis runter ins low end, sobald gddr5 vollständig abgelöst wurde, und HBM ist der highend speicher, der GDDR in quasi jeder disziplin überlegen ist, außer im preis. also ist gddr6 die budgetlösung.

der ganze rest vom post ist meine meinung und auch als solche gekennzeichnet. mir ist bspw. die lautstärke wirklich wurst, weil das ding unter wasser kommt. mir wäre da eine gute referenzplatine wichtiger als der kühler. wegen mir mit dem billigsten blower, den amd in china auftreiben kann oder direkt komplett ohne kühler. trotzdem wirds langsam mal zeit für einen anständigen referenzkühler.

für mich zählen eben auch die specs. ich "brauche" nicht zwingend ein threadripper system, aber nvme raid und >100gb/s speicherdurchsatz ist halt leider geil.

performance out of the box ist ganz nett, aber ne nvidia-like blackbox mit einem performance regler im msi afterburner spricht mich einfach nicht sonderlich an. dual bios zum flashen, ein mit einstellungen reich gefüllter wattman, oc/uv headroom, quasi deaktivierbare powerlimits, ein richtig fettes vrm und hbm statt gddr sind für mich wichtiger als das letzte bisschen performance.

vega hat mir von allen gpus bis jetzt am meisten spaß gemacht, allerdings kommt bei vega verhältnismäßig wenig gaming leistung raus. die radeon 7 mit RDNA statt GCN wäre :love:, aber ist ja leider nicht passiert.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Puh, muss es nun auch mal sagen, Nvidia kommt viel zu früh, AMD kommt genau zum Weihnachtsgeld! Perfekt!

😅 von 6 Wochen dauernd zu spät zu reden...
Muss zugeben freu mich auf den Weihnachtsurlaub bei soviel neuer Hartware:) und spätestens da sollten beide Hersteller am Markt sein:)
 
  • Gefällt mir
Reaktionen: Benji18 und HighPerf. Gamer
Das sieht so aus als wäre schon das Referenzdesign der Kühlung zu gebrauchen. Optisch passt das auch schon mal. Ich bin gespannt ob man auf RTX3080-Level rauskommt. Das würde ich dann schon unter "mission completed" verbuchen.
 
  • Gefällt mir
Reaktionen: Holindarn und Benji18
Orok91 schrieb:
Puh, muss es nun auch mal sagen, Nvidia kommt viel zu früh, AMD kommt genau zum Weihnachtsgeld! Perfekt!

😅 von 6 Wochen dauernd zu spät zu reden...
Muss zugeben freu mich auf den Weihnachtsurlaub bei soviel neuer Hartware:) und spätestens da sollte beide Hersteller am Markt sein:)
Die fes kommen vielleicht knapp zum weihnachtsgeschäfft. Aber die customs werden erst im januar komplett sein.Während nvidias modelle bis dahin in hülle und fülle verfügbar sind.
 
Adzz schrieb:
Kann ich mir nicht vorstellen. Sie werden schon raytracing kerne verbauen. Sonst ist es klar das sie die nächsten jahre kein gegenstück zu dlss herausbringen. Für ki deeplearning und echtzeit raytracing berechnung sind die normalen kerne nicht schnell genug.
Denke AMD wird auch im GPU Bereich das erste Chipletdesign bringen. Da kann koennen dann Sachen wie RT Recheneinheiten in einen Extrachip ausgelagert werden. In Zukunft wird man garnicht mehr drumrum kommen wegen der Kuehlung und Mehrleistung.
 
Ob die neuen Karten wohl wieder einen Umschalter für die Firmware besitzen werden?
Ich fände es zumindest Super wenn man wieder zwischen einem auf Effizienz gedrosselten und einen auf Performance getrimmten Modus direkt an der Karte wählen könnte.
 
Für eine FE garnicht mal so häslich! aber Fortnite würde ich jetz nicht dafür zocken wollen...aber so macht man die Kids willd......und Papa wird generft .

Auf alle Fälle den Radeon Käufern ....viel spaß.
Für mich kommen die nicht in Frage, das mag mein G-Sync-Monitor nicht. :smokin:
 
Als Nvidia Fan muss ich trotzdem sagen zum Bild sehr schöne Karte.
 
Hayda Ministral schrieb:
Mal unabhängig davon dass auch bei mir eine ganz böhse Ahnung aufkommt dass die mal wieder mit leerem Blatt pokern - WARUM müssten die Deiner Meinung nach spätenstens mit dem auslaufen der nvdia review-nda am mittwoch so einige dicke infos raus hauen?
warum? weil sie sonst dem direkten wettbewerb die ganze bühne überlassen - selbst wenn man gänzlich überlegen wäre, lässt man so eine möglichkeit sich in erinnerung zu rufen, nicht tatenlos verstreichen.
 
Zurück
Oben