News AMD Radeon RX 6000: Navi 21 XT erhält große Vorschusslorbeeren

kann gelöscht werden - veraltet...
 
Zuletzt bearbeitet: (veraltet)
  • Gefällt mir
Reaktionen: Max0071980, Iscaran, Otsy und 2 andere
Chismon schrieb:
die runderen Produkte wird vermutlich AMD/RTG mit RDNA2 nach sehr langer Durststrecke wieder einmal bieten, auch wenn es die groesstenteils verblendete Kundschaft (anders als bei RyZen, insbesondere Zen+ und Zen2) nicht zu wuerdigen weiss.

Das würde ich erst Mal abwarten, heute sind viele 5700(XT) Karten noch immer in zig Bewertungen als Absturz und Crash Karten verleumdet, auch wenn längst die Treiber stabil sind.
Das mit dem rund laufen von Beginn an, da hat AMD einfach einen schlechteren Ruf weg.
Gerade bei der breiten Masse (die sich nicht ständig neue Treiber installieren, oder in Computer Foren sich tummeln) da hat es AMD schwer und den Ruf als Bastlerkarte nach wie vor.

Und ja, dass die 3080/90 zu Beginn auch eine Crash Karte war - das hat die breite Masse ja gar nicht mitbekommen, denn da wo es nix Karte gibt, da nix Bewertung :D .. Wenn die jemals breit verfügbar wird, sind die Kinderkrankheiten im Treiber bereits Legenden. Bei AMD ist es immer andersrum.
Karten sofort auf dem Markt - Treiber erstmal Kacke - und nach 2-3 Monaten User Beta Test läufts dann irgendwie.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu und derSafran
Dural schrieb:
Schwachsinn, ampere hat den grössten leistungs gewinn seit dem g80 gebracht, immer x800 gegen x800. wie kann man das nur abstreiten wenn man das sogar jederzeit selber überprüfen kann?!?
Sicher ;)? Das sehen andere aber deutlich anders ;):
 
  • Gefällt mir
Reaktionen: derSafran, Mcr-King und Colindo
122messi122 schrieb:
Wo hat AMD etwas gesagt? Bitte mit Quelle
1603195341924.png

https://www.tomshardware.com/news/amd-big_navi-rdna2-all-we-know
 
  • Gefällt mir
Reaktionen: Unnu, Mcr-King und fox40phil
SV3N schrieb:
Für Leute die gerne ihren Single-Core-Boost beschneiden und bei komplexen Lasten auf ein instabiles System stehen, mag das durchaus zutreffen. Hauptsache die Zahlen in Cinebench R20 sind groß und größer! :D

Aber genug Offtopic, das Tool ist für die Tonne und das weiß auch jeder, der sich mal näher damit auseinandergesetzt hat.

Also auf der einen Seite Seitenhiebe gegen Igor aber dennoch seine News hier als Update für Klicks Zitieren?
Und ich rede hier nicht nur vom zitierten Beitrag auch die Likes die gegen Beiträgen gegen Igor gelikt wurden.
Wenn man der Meinung ist das jemand inkompetent ist oder falsche Informationen rausgibt braucht man ihn auch nicht Zitieren, ohne Update hätte ich zu mindestens nicht auf den Beitrag geklickt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xRedF, jemandanders, dohderbert und eine weitere Person
duskstalker schrieb:
...
ein groß dimensioniertes netzteil läuft ruhiger, effizienter, hat mehr anschlüsse und kabel, hält länger und ist eben nicht zu klein um bei hoher last oder lastspitzen einzuknicken.
...

Was für ein Quatsch...

Typische Argumentationskette heutzutage: Erst behaupten "alles urban legends und alles falsch" und dann die "eigene Wahrheit" präsentieren, die bei genauer Betrachtung aber genauso angreifbar und subjektiv ist...

Wieso sollte ein 1000 Watt-Netzteil per se effizienter sein, als ein 500W Netzteil? Wieso sollte es per se länger halten? Und wieso sind mehr Anschlüsse besser als wenige? Wieso sollte "ein groß dimensioniertes Netzteil" ruhiger laufen als ein vermeintlich klein dimensioniertes?

Pauschalisierungen, Generalisierungen... Ich hoffe, du gehst nur bei Technikthemen so durchs Leben.
 
  • Gefällt mir
Reaktionen: Thorque, QwayZee, janer77 und eine weitere Person
Blade0479 schrieb:
Ueberlanges Zitat entfernt.

Warten wir es ab, vielleicht ist ja Besserung in Sicht und man muss nicht wie bei AMD/RTG ...aehm nVidia RTX Ampere Undervolting betreiben, damit man es vor GA-102 Chip-Abwaermehitze im Zimmer noch aushalten kann ;).

Nee, Scherz beiseite, AMD/RTG wird auch weiterhin die Kunden als Beta-Tester missbrauchen, wuerde ich denken, aber bei nVidia ist das eher ein Novum mit RTX Ampere, so gesehen ist der ehemalige Vorteil da weg und jetzt wollen beide wohl den "fine wine" weiss machen (ohne genuegend Speicher geht das allerdings schlecht, nVidia, und ueberdimensionierter Speicher fuer heftige Aufpreise passt leider auch nicht).

Tja, auch beim OC ist nVidia mittlerweile wohl eher bescheiden unterwegs mit der RTX Ampere Architektur/Fertigung, auch wenn das in Testvergleichen zur Vorgaenger-Generation (RTX 2080Ti bspw.) bewusst unterschlagen wird in den meisten Tests ... schade, ernst zu nehmender Journalismus sieht da anders aus bzw. beleuchtet das zumindest am Rande.

Engel sind weder AMD/RTG noch nVidia, denn auch AMD/RTG dreht an der Preisschraube, wenn diese 'mal fuehrend sind und will mehr Scheine sehen, siehe aktuell die sich anbahnenden Zen 3 Vermeer CPU-Preise.

Was den Treiber angeht, bin ich da schon eher positiv gestimmt fuer die zweite Navi Iteration, dass AMD/RTG das doch stabil hinbekommen wird (wann(?), allerdings nicht, Stichwort "Early Adopter Bonus"/Beta-Tester) und DLSS und RT-Raytracing sind auch kein Hexenwerk und fuer AMD/RTG machbar.

Wie lange hat denn nVidia vom ueberaus durchwachsenen DLSS1.0 zu besseren aber immer noch nicht perfekten DLSS2.0 gebraucht ... genau, ueber ein Jahr, also problemlos, ausgereift und schnell sieht da m.E. ganz anders aus ;).
 
Zuletzt bearbeitet von einem Moderator:
Und mit 355W entgleist der Hypetrain. Wie viele Verletzte gibt es? Das war es dann wohl auf für die 200W Träumer.
Mit jeder News bin ich mit meiner RTX 3080 glücklicher. War die beste Entscheidung.
 
Chismon schrieb:
Tja, auch beim OC ist nVidia mittlerweile wohl eher bescheiden unterwegs mit der RTX Ampere Architektur/Fertigung, auch wenn das in Testvergleichen zur Vorgaenger-Generation (RTX 2080Ti bspw.) bewusst unterschlagen wird in den meisten Tests ... schade, ernst zu nehmender Journalismus sieht da anders aus bzw. beleuchtet das zumindest am Rande.

Wie lange hat denn nVidia vom ueberaus durchwachsenen DLSS1.0 zu besseren aber immer noch nicht perfekten DLSS2.0 gebraucht ... genau, ueber ein Jahr, also problemlos, ausgereift und schnell sieht da m.E. ganz anders aus ;).

Es ist eigentlich für den Endkunden am Besten, wenn man den Chip kaum ocen kann (Lassen wir jetzt mal die Fertigung aussen vor), da er dann schon näher am Maximum ist. Für Leute deren Hobby das natürlich ist, ist es schade. Aber Trend zeichnet sich ja ab.

Klar, DLSS ist nicht perfekt. Amd sollte trotzdem sich tunlichst beeilen eine Alternative aufzustellen, was sie ja sicher auch machen (Zusammen mit den Konsolenherstellern, ehsten MS).
 
basic123 schrieb:
Auf Youtube gibt es ein Video wie jemand i9 10900k mit einer 2080 Ti auf einem 450W Netzteil ohne Probleme betreibt. Die Panik hier in den Kommentaren ist völlig übertrieben.

Da kannst du nen 50er darauf verwetten das dies nicht lange so geht. ;)
 
Chismon schrieb:
unnötiges Vollzitat entfernt

Solche Verschwörungstheorien sind ja auf einer Stufe der Corona Leugner.

Chismon schrieb:
Naja, mir ist das relativ egal, wenn AMD/RTG halbwegs liefert mit RDNA2, hat nVidia bei mir aktuell keine Chance zu landen, auch nicht mit einer RTX 3070 mit 16GB (ohne GA-104 Vollausbau).

So etwas muss man nicht unterstuetzen und die, die es trotzdem tun, koenne sich dann als Mitverantwortliche der Preismisere auf dem Grafikkartenmarkt mitfeiern.

Also bist du sowieso nicht Objektiv und man kann auf deine Meinung pfeifen.

Chismon schrieb:
unnötiges Vollzitat entfernt

Auf die nächsten 4 Jahre ist Raytracing das Feature schlechthin. Es kommt doch kaum noch ein Trippe A Titel ohne Raytracing und wenn wird es von Moddern nachgeschoben. Du kannst selbst AC Odyssey mit Raytracingmod spielen. Und es sieht viel besser aus. Ohne Raytracing sehen die Spiele nicht besser aus als Spiele vor 5 Jahren.

Chismon schrieb:
unnötiges Vollzitat entfernt
Da hast du Recht. Man sollte auf die 3080 mit 20 GB warten im Dezember. Denn da hat man viel mehr von als von 16 GB.

Und du und deine Gerüchte. Die 2070 Super ist trotzt der kurzen Lebensphase unter den Top 10 Karten bei Steam und hat ähnlich viel gekostet. Ich bin der Meinung das die 1080 Besitzer jetzt umsteigen werden und es riesige Umsätze gibt. Wohin? Na wieder auf Nvidia weil die 1080 sich bewährt hat ohne jegliche Probleme und die Vegas noch immer outperformed. Das rundere Produkt mit einen halben Jahr Treiberproblemen.

https://store.steampowered.com/hwsurvey/videocard/
 
Zuletzt bearbeitet von einem Moderator: (Unnötiges Vollzitat entfernt)
  • Gefällt mir
Reaktionen: foo_1337 und Blade0479
leipziger1979 schrieb:
Denn das wäre schon peinlich für AMD nachdem man den Mund bisher so voll genommen hat.

Aber schon blöd wenn die Realität das Marketing überholt.
Auf welchem Planeten hast Du das denn gelesen oder gehört?
Die einzige Aussage bisher war +50% mehr Performance per Watt und der Teaser auf der Ryzen Vorstellung.
Alles andere bisher ist Glaskugel lesen.

Aber trotzdem, eine >300W Karte kommt mir nicht in den Recher, egal von wem. Rein aus Prinzip.
 
  • Gefällt mir
Reaktionen: ThePlayer, Unnu und daknoll
XamBonX schrieb:
Huiii, es geht mal über die 2 Ghz Marke nun...

Wenn du richtig kühlst taktet heute schon sehr vieles über 2Ghz
Die 3080 von Gigabyte läuft bei mir hier mit ihren 60 Grad Ingame bei 2.070.
 
  • Gefällt mir
Reaktionen: derSafran und foo_1337
DocWindows schrieb:
Aus Igors Sicht schon. Der hat dich erwähnt und deine Powerwerte angezweifelt.
Er hat meine Powerwerte eben nicht angezweifelt. Seine TGP Werte stimmen mit denen von mir überein. Er hat aber noch zusätzlich versucht die TBP zu berechnen. Vielleicht solltest du den englischen Artikel lesen, dort hat er mir explizit Recht gegeben und die 255 W stehen sogar im Artikel.
 
  • Gefällt mir
Reaktionen: Unnu, Ebu85, Rockstar85 und 12 andere
leipziger1979 schrieb:
Oje, da können die AMD Fans nur hoffen das Igor sich irrt.
Denn das wäre schon peinlich für AMD nachdem man den Mund bisher so voll genommen hat.

Aber schon blöd wenn die Realität das Marketing überholt.
Oje, merkste selbst das dein Kommentar Müll ist oder?
Amd hat bis jetzt noch gar nichts dazu gesagt nur das es eine Effizienzsteigerung gibt wie die dann aussieht weiß niemand.
Btw nvidia hat ihre Effizienzsteigerung auch in Leistung umgewandelt.
 
Zurück
Oben