tookpeace.
Lt. Junior Grade
- Registriert
- Juli 2010
- Beiträge
- 410
pipip schrieb:Gut. Es gibt die Folien mit den 50%. Da gebe ich dir recht, das kann man mit Vorsicht genießen!
genau das meine ich
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
pipip schrieb:Gut. Es gibt die Folien mit den 50%. Da gebe ich dir recht, das kann man mit Vorsicht genießen!
Low-End RDNA2 heißt ja nicht Low-End des Portfolios. Wenn Navi23 eine effizientere und leicht schnellere 5700 XT ohne RT wird, fände ich das nicht schlecht. Die RDNA1-Karten dann entsprechend eine Preisstufe runter.Taxxor schrieb:Als Konkurrenz zur Turing GTX16er Serie? Dafür hat man Navi 14 schon.
Ich bezog mich dabei nur auf die Formulierung von wccftech, wonach Navi23 gegen die GTX16er Turings gestellt werden soll.Revan1710 schrieb:Low-End RDNA2 heißt ja nicht Low-End des Portfolios. Wenn Navi23 eine effizientere und leicht schnellere 5700 XT ohne RT wird, fände ich das nicht schlecht. Die RDNA1-Karten dann entsprechend eine Preisstufe runter.
Haldi schrieb:Anhang anzeigen 910557
Das ist aber schon ein Engine Bug und hat nicht wirklich so viel mit den GPU Treibern zu tun oder?
7hyrael schrieb:ich hab Undervoltet und nicht übertaktet. Die Artefakte sind bekannt und Engine-Probleme im zusammenspiel mit AMD Grafikkarten/Treibern.
Such nach CoD Modern Warfare pixelated sights. Scheint zwar gestern ein Patch dafür gekommen zu sein, allerdings ist das eben nur ein Beispiel von mehreren und er scheint wohl nur Vega64 zu adressieren.
Es wird aber leider AMD zugeschriebenmodena.ch schrieb:Klar Engine Bug, drum hat es ja auch der Gameentwickler behoben und nicht AMD.
Der Bezug zur GTX16ér Serie im Artikel ist Käse, das denk ich auch. Ein solcher Chip könnte in Zukunft dann aber vielleicht eine ziemlich attraktive Alternative zu einer wohl kommenden Nvidia 3060 werden. Eben für ambitionierte, aber dennoch preisbewusste FullHD/WQHD Spieler. Das ist ein großer Markt, in dem RayTracing eine untergeordnete Rolle spielt.Taxxor schrieb:Als Konkurrenz zur Turing GTX16er Serie? Dafür hat man Navi 14 schon.
Und es würde keinen Sinn machen einen 240mm² Chip der, wenn er ohne RT kommt, nicht langsamer als eine 5700XT sein dürfte, gegen eine 1650 oder 1660 zu stellen.
Taxxor schrieb:Ich bezog mich dabei nur auf die Formulierung von wccftech, wonach Navi23 gegen die GTX16er Turings gestellt werden soll.
just_fre@kin schrieb:Bin man gespannt, was in Zukunft auf uns zu kommt, aber bevor nicht die ersten Tests raus sind (wenn es dann irgendwann mal soweit ist) glaube ich nicht an ernsthafte Konkurrenz in der Oberklasse.
Zu sehr hat AMD die Käufer in den letzten Jahren in diesem Preisbereich im Stich gelassen. Auch aktuelle "Flaggschiffe" wie die Radeon VII oder die RX 5700 XT sah ich zu ihrem jeweiligen Launchzeitpunkt bestenfalls in der gehobenen Mittelklasse, dazu noch mit schlechterer Effizienz als vergleichbare Konkurrenzprodukte.
Mir persönlich wäre es lieber, wenn sich AMD auf eine effiziente Mittelklasse (Preisbereich 200 - 450€) fokussieren würde, auch im mobilen Sektor. Intel soll dann mit ihren neuen dGPUs den Einsteigerbereich abdecken und Nvidia können dann die 450€ aufwärts übernehmen - alle Produkte darunter von denen sind sowieso seit Jahren hoffnungslos überteuert, ich glaube die letzte echt stimmige und günstige Karte war die GT 750 (Ti), sofern mich meine Erinnerungen nicht täuschen.
Sofern das nicht als Ironie gedacht war: in welchem Szenario bringst du eine RTX 2080 Ti denn so ans Limit, dass du eine schnellere Grafikkarte benötigst?
GERmaximus schrieb:Ich würde durchdrehen.
Das ist ein absolutes No Go für mich, wenn der Treiber rum Spackt.
Sollte ich auf AMD wechseln, würde ich meinen Gsync Monitor noch für zwei Wochen behalten. Innerhalb dieser zwei wochen (nur zwei Wochen) würde ich die Karte Stock betreiben und darf sich maximal 0 mal durch den eigenen Treiber abschießen...
Genau und ja. Es tritt auch vglw. sehr selten bei einigen wenigen nVidia GPUs auf, aber bei den Vegas ist es quasi üblich. Es ist ein Bug der Engine und eigentlich kann man da AMD wenig Vorwürfe machen wenn der Saftladen Activision bzw IW wie üblich ne Schrottengine verwendet die sie nicht im Griff haben...Haldi schrieb:Das ist aber schon ein Engine Bug und hat nicht wirklich so viel mit den GPU Treibern zu tun oder?
Ja, hab nicht behauptet dass es nicht so ist, beim selbstversuch auf der 970 trat das Problem aber konsequent nie auf und auch im Freundeskreis kannte das Problem niemand da die alle typisch Ahnungslos fest verankert in BlauGrün unterwegs sind.Otsy schrieb:Wenn ich dieses Problem recherchiere komme ich sehr schnell zu dem Schluss, dass es sich nicht, wie suggeriert, um einen AMD-exclusiven Fehler handelt, sondern dass aktuelle nVidia-Modelle ebenso betroffen sind.
Genau das hätte ich eher dir vorgeworfen ohne mehr Kontext. Einfach mal über den eigenen Tellerrand gucken und Leute verstehen, die so viel Geld ausgeben und trotzdem noch mehr wollen, weils einfach nix besseres gibt.just_fre@kin schrieb:Ich würde mir manchmal wünschen, dass die Leute hier im Technikforum nicht so engstirnig durch die Welt gehen und auch mal andere Perspektiven einnehmen
nVidia ist AMD nicht wirklich um einiges Voraus - jetzt mal abgesehen von DXR, VSR und eben den TensoreCores.tookpeace. schrieb:Abwarten.. Nvidia ist AMD um einiges voraus und ich genieße das AMD marketing im GPU bereich mit Vorsicht
Die "Frontend"-Probleme konnte AMD mit RDNA und der Umorganisation der CUs weitgehen beseitigen, das sieht man ja nun gut daran, dass sie aus 2560 Shader mehr Leistung heraus holen als Vega64.Haldi schrieb:Allerdings kennen wir ja die Frontend probleme von AMD bei grossen chips... Wenn wirklich 3 Grössen kommen bin ich sehr gespannt darauf ob die Karte die doppelt so gross ist auch 200% Leistung haben wird!
KI-Deep-Learning findet bei AMD weiterhin über die Shader statt. Spezielle Tensor-Kerne sind von AMD nicht angekündigt worden.Trefoil80 schrieb:Bei der vergrößerten Chipgröße bitte nicht vergessen, dass dort wohl auch die zusätzlichen Einheiten für Raytracing, KI-Deep-Learning-Blabla und co. untergebracht sind.
Da merkt man wieder, das AMD ihre Architektur von GCN zu RDNA wirklich grundlegend an vielen Stellen überholt haben und eigentlich nur noch die Organisationsstruktur als grober Aufbau geblieben ist, während nVidia seit der G80-Generation im Endeffekt nur ein wirklich großen Bruch in der Architektur hinlegten (Kepler) und ansonsten ihre Architektur nur in der Organisation optimierte und um Funktionen erweiterte.Trefoil80 schrieb:Jetzt laufen die Navi 10-Chips zwar fehlerfrei, aber dieser Zustand war erst 6 Monate nach dem Release erreicht.
So hat man sicher unnötig einige Kunden an den dubiosen Lederjacken-Mann von nVidia verloren...
Da stimme ich dir zu, das darf AMD nicht passieren. Ich bin da aber guter Hoffnung. AMD hat RDNA jetzt vom Treiber her halbwegs gut im Griff. Der Schritt RDNA zu RDNA2 wird jetzt eher mit Bedacht erfolgt sein.Trefoil80 schrieb:Was AMD definitiv nicht wieder passieren darf: Die Treibersituation.
Das ist so falsch!DarkerThanBlack schrieb:Nein, brauchen sie nicht. Das RT wird direkt über die Shader laufen.
Im groben zwar nicht falsch, aber zu kurz gedacht.GERmaximus schrieb:Nvidia lässt fertigen und hängt nicht, im gegenteil, die können mit 12nm noch immer 7nm schlagen.
BZW anders herum, AMd benötigt 7nm um mit Nvidias 12nm Fertigung mitzuhalten
zeedy schrieb:Ich hatte mit meiner 5700 XT seit Kauf...
Das ist immer genau das Problem, das ich mit höheren Auflösungen hatte. Die Grafik ist die gleiche (aber schärfer), dafür frisst es viel Leistung. Und genau da sehe ich die Chance eines offenen, DLSS2.0 (oder besser) vergleichbaren Features für alle SpieleBoardBricker schrieb:Mal sehen. Meine Vega64 ist mir für WQHD je nach Titel ein bisschen schlapp, wenn die Regler rechts von der Mitte stehen sollen. Eine RX5700XT bietet mir bei dem Preis zu wenig Mehrwert gegenüber dem, was ich gerade habe und eine Neuerscheinung, wenn sie dann mal kommt, ist wahrscheinlich auch außerhalb meines Budgets.
Ich glaub, ich kauf mir einen 17'' TFT und spiele wieder in 1280x1024
Teralios schrieb:Das ist so falsch!
Aber man bekommt die gleiche Leistung für weniger Geld. Das ist doch schonmal ein Fortschritt. Beim letzten Test der 1650 mit GDDR6 habe ich gesehen, dass die Leistung ähnlich wie meine alte RX470 ist. Die hat Ende 2016 250€ gekostet. Die 1650 ist kaum günstiger.Shoryuken94 schrieb:Konkurrenz fördert die Weiterentwicklung von produkten und man bekommt als Kunde deutlich bessere Produkte in kürzeren Abständen. Die Preise sinken aber nicht.
Da bist du noch auf dem alten Stand, als hier auf CB das AMD-Patent analysiert wurde. In meinem Artikel, der hier vor kurzem raus kam, habe ich das nochmal deutlich präzisiert. AMD wird auch eigene Schaltkreise nur für RT benutzen. Allerdings wird von 2 Berechnungsfunktionen eine vom Texturprozessor übernommen, nur die zweite kommt als Funktionseinheit hinzu.DarkerThanBlack schrieb:Soweit ich das mitbekommen habe, nutzt AMD keine dedizierten RT-Einheiten. RDNA2 hat die Shader so umgebaut, das RT direkt über die Shader parallel laufen kann.
Würde vermutlich sogar besser sein.
N7P wurde anscheinend bereits für Navi10 verwendet, also wäre nur N7+ überhaupt ein Fortschritt in der Fertigung. Ansonsten ist läuft alles über die Architektur, was die +50% P/W so erstaunlich macht. Und anders als beim Node-Shrink gibt es auch weniger Möglichkeiten zum Cherry-Picking.Revan1710 schrieb:Mein letzter Stand war, dass sowohl für die Zen3 als auch die RDNA2-Chips alles noch Mutmaßnungen sind, ob N7P oder N7+
Nein! Siehe oben.Shoryuken94 schrieb:Da RDNA2 auch keine dedizierten Raytracing Einheiten hat, wird es noch enger,
Danke! Wer ihn noch nicht kennt, einfach nach "Raytracing VI" suchen.Teralios schrieb:Es gibt hier einen recht guten Artikel, der es bereits grob erläutert,