News „Enttäuschend“: Nvidia-CEO lästert über AMD und Radeon VII

Lord Horu$ schrieb:
Wenn AMD ja eine so gute midrange Auswahl hat und das Midrange ja so wichtig ist...warum ist Nvidia dann immer noch Marktführer?
Nennt sich Marketing und viele Negative Unwahrheiten welche über AMD verbreitet werden von den Leuten.
 
  • Gefällt mir
Reaktionen: psYcho-edgE, Benji18, Acedia23 und eine weitere Person
rg88 schrieb:
Adaptive Sync kommt meines Wissens von AMD

Und Apple hat das Smartphone erfunden ;) Nein, Adaptive Sync ist seit längerem ein Bestandteil der VESA Norm.

Gegndarstellung zu @Volkimann

Als AMD von G-Sync überrascht wurde und dem nichts entgegenzusetzen hatte, haben ein paar "clevere" PR Heinis bei AMD eine bereits vorhandene Technik als neu und unter dem Namen "Freesync" vermarktet ;)

Am Ende ist es aber für alle, die es brauchen und wollen, ein Gewinn.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cpt.Willard und Benji18
Mrs. Merciless schrieb:
Wenn ich in den vollen Genuss einer wirklich potenten Grafikkarte kommen möchte, bräuchte ich auch zunächst mal einen neuen Monitor, habe immer noch einen, der max. 75Hz zustande bringt. ^^

Dabei sind 144hz Displays doch grad recht günstig - schon teilweise ab 150€ zu haben.

Natürlich 24er, keine 27/32 Zoll Monster Teile - die kosten mehr. ;)
 
Marcus Hax0rway schrieb:
"Enttäuschend" beschreibt es wohl am besten.

Wenn Adaptive Sync tatsächlich ordentlich mit Nvidia-Karten funktionieren sollte, gibt es für mich leider keinen plausiblen Grund mehr, auf AMD umzusteigen. Gefühlt 70% der Spiele werden für Nvidia-GPUs optimiert und bieten Nvidia-exklusive Features. Wenn FreeSync auch wegfällt, war es das dann.

Brauchst Du dir keine Gedanken drum zu machen.
Was hier so als prächtige Errungenschaft seiten NVidia gefeiert wird, kommt mit HDMI 2.1 sowieso.
Das weiß auch NV, kann mir jedenfalls nicht vorstellen, das sie dann den HDMI Standard nur verkrüppelt anbieten wollen.

"Überdies unterstützt HDMI 2.1 dynamische Bildwiederholfrequenzen (Variable Refresh Rate/VRR) und erlaubt damit adaptive Synchronisierung – dadurch wirken etwa Spiele auch bei niedrigeren Bildraten flüssig und zeigen auch bei schnellen Bewegungen scharfe Inhalte. "

Aber warum nicht dem uninformierten Publikum nicht noch schnell eine technisch ohnehin kommende Gegebenheit als tolle Errungenschaft verkaufen?
Unclever ist das nicht.
 
  • Gefällt mir
Reaktionen: Cpt.Willard und psYcho-edgE
Ich habe aktuell auch 24 Zoll, reicht mir auch völlig. Ja, wie gesagt, ich möchte insgesamt ein paar "Upgrades" vornehmen. ^^
 
  • Gefällt mir
Reaktionen: Chaos Theory und anexX
Blaexe schrieb:
Spiele nehmen sich gerne den RAM den sie kriegen können. Ich würde gerne sehen dass das zu einem signifikanten Problem bzgl. der Performance wird.

ich kann sogar ruckeln auf FFXV mit meiner 1080Ti samt 11GB provozieren, muss nur DSR auf 1.25 stellen ;)
 
duskstalker schrieb:
Tiefes Baden-Württemberg.

mit dachlatt, hilbadritschler, sompfgomper, schofseggl, grasdaggl, hondsgribbl, soichhafa, waidag und Hennadreckschwätzer fängt hier halt keiner was an :daumen:
Ich bin in Freiburg, aber nur naigschmäggt. Mein Favorit wäre dann Hennadreckschwätzer.
Gruß
 
moshkopp schrieb:
Es gibt aber auch andere Bereiche zu denen AMD keinen Zugang hat, die kannst du sicher auch aufzählen :D

compute kochen beide ihre eigenen süppchen, AMD aber effektiver als NV...
 
pietcux schrieb:
Ich ziehe auch eine AMD CPU der Nvidia CPU vor, immer!

Joa, der Tegra ist auch nur begrenzt nützlich um Desktop Umfeld. ;)
 
  • Gefällt mir
Reaktionen: GUN2504 und rg88
Egal ob Nvidia/AMD, Nikon/Canon, BMW/Mercedes/Audi, so eine Entgleisung eines CEO`s, egal welches Unternehmen darf einfach nicht passieren. Extrem unprofessionell.
 
  • Gefällt mir
Reaktionen: Alexdr, HiT-Killer und Otsy
Blueline56 schrieb:
Wieso die Lästerei, objektiv hat er doch gar nicht so unrecht, auch wenn es nicht gerade der feine Stil ist, öffentlich so zu kritisieren, eine 7-nm-Fertigung kann gerade so mal mit der 2080 mithalten, 16GB HBM ist zwar fein, aber ob das Wirtschaftlich für AMD wirklich gut ist, bezweifle ich mal.

Oh ein 330mm² Die leistet nur das gleiche wie ein 550mm² Die?
Klar hat AMD den besseren Fertigungsprozess. Aber was wäre wenn AMD so eine große GPU bauen würde?
Wäre wäre Fahradkette....immer schön die Relationen beachten!
 
  • Gefällt mir
Reaktionen: Cpt.Willard, Andre Prime, GUN2504 und eine weitere Person
  • Gefällt mir
Reaktionen: rg88
Ach ich finds witzig...Morgen kommt wieder der Tweet das es nicht so gemeint war, oder die Lederjacke etwas zu eng wurde was ihm für kurze Zeit den Verstand raubte. Welch eine Begründung würde sonst zu so einer peinlichkeit passen.
 
rg88 schrieb:
Bei einer nagelneuen Fertigung mit geringer Ausbeute? -> Pleite :D
Das ist mir ja auch klar, alles gut! ;)
Mich nervt es halt, dass nur stumpf Produkte verglichen werden ohne den Hintergrund zu betrachten.

Das ist genauso als wenn jemand sagen würde, "warum ist meine GTX 1030 langsamer als eine 980ti? Ist doch bessere Fertigung!!!!einself"
 
  • Gefällt mir
Reaktionen: JohnVescoya und rg88
Die Lederjacke kann heulen wie sie will, AMD macht alles richtig im Moment. Die "Consumer-Schlacht" wird bei den (Ultrathin) Notebooks entschieden und da ist AMD gut positioniert. Ewig können die OEM's die tollen APU's nicht ignorieren. Und wenn man sich mal vorstellt was bei den Desktop APU's künftig durch den Shrink möglich sein wird… Kommt gut!
 
da die entwickler ja wissen müssen was man für games an hardware braucht - kann die radeon vII bei weitem nicht so schlecht sein wie "lederjacke" behauptet und hier einige von sich geben.
irgendwo stand auch, das die radeon zu "alt" sein.

wieso wird dann bei THE Devision 2 in den anforderungen die VII neben eine 2080Ti gesetzt bei 4k und 60fps?
auch sind wohl 16gb vram bei weitem nicht so schlecht wie viele hier meinen!

PS: eine 2060 ist übrigens überflüssig - dank der 6gb vram

ubi_tctd2_specs_sources-final.jpg
 
Die Frage ist wie realistisch die Grafik ist, sowas gabs vorher schon bei anderen Spielen und sie waren selten korrekt.
 
XTR³M³ schrieb:
und selbst bei ner 1080Ti langen die 11GB nicht immer... was will uns das über 8GB karten sagen? ;)

Kurze Erläuterung für Dich:

Der Speicher in GPUs wird zuerst mit den Texturen beladen, die permanent oder sehr oft gebraucht werden (Preload). Danach werden, während Du durchs Spiel läufst, immer wieder Texturen nachgeladen, die in den jeweiligen Szenen gebraucht werden.

Das passiert so lange, wie Speicher vorhanden ist. Gerade nicht mehr benötigte Texturen werden i.d.R. *nicht* aus dem Speicher entfernt, man könnte sie ja wieder brauchen.

Erst wenn der physische Speicher knapp wird, beginnt das Spiel diejenigen Texturen, die am längsten nicht gebraucht wurden, wieder aus dem Speicher zu entfernen (es können auch noch andere Kriterien zum Einsatz kommen).

D.h. es wird der Speicher immer erst mal peu à peu vollgeladen mit allen Texturen, die das Spiel im Level überhaupt hat, wenn Du es komplett abläufst.

Wenn eine Textur aus dem Speicher entfernt wird, kann es bedeuten, dass sie später doch wieder gebraucht wird, und geladen werden muss. Das belastet die Streaming-Engine und auch die PCIe Bandbreite. Wenn das zu oft passiert, leidet die Framerate. Erst wenn die Engine das feststellt, wird die Auflösung der Texturen tatsächlich reduziert.

Ich behaupte mal ganz frech, dass es derzeit kein Spiel gibt, das bei 8 GB nicht die bestaufgelösten Texturen zeigt. Es kann vorkommen, dass es bei 8 GB doch mal hin und wieder leichte Nachladeruckler oder leichte Verzögerungen, bis die Textur in voller Qualität aufpoppt, gibt. Mehr nicht (man kann zu Recht sagen, dass das schon ärgerlich genug ist). Auch bei 6GB wird es, wenn überhaupt, nur in Ausnahmefällen zu einer Reduktion der Texturequalität kommen.

Aber so dramatisch, wie Du es hinstellst, ist die Beschränkung auf 6 oder 8 GB Speicher bei weitem noch nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: indy1138
Zurück
Oben