News Next-Gen-GPU: AMD Navi 21 „Big Navi“ offenbar mit 5.120 ALUs

@PHuV

Ach und zum Thema "interne Informationen", einfach mal nvidias Geschäftszahlen anschauen denn deren Jahresüberschuss hat sich in dem Zeitraum vervielfacht und die klassischen Grafikkarten haben am Umsatz einen ziemlich hohen Anteil.

Ach ja, aggressiv tritt hier nur einer auf und das bist in Form von Beleidigungen und rumgeschreie (durchgehende Großschreibung) du.
Glaubst du ernsthaft das du mich unter diesen Umständen mit deiner ignore Androhung schocken kannst?

Des weiteren, auf welche Grafik soll ich mich wohl bei dem Posting beziehen bei dem ich darauf folgend an den entsprechenden User gerichtet hatte? Wenn du der Diskussion nicht folgen kannst oder willst, einfach raushalten.
 
FrittiDeluxe schrieb:
... näher wir den neuen GPU Generationen kommen desto mehr frage ich mich, wie teuer ein Modell wird, das meinen bescheidenen Wunsch nach 100+ FPS auf 1440p realisiert ... Vega 56 Red Dragon stößt da zu oft an Grenzen und vermutlich bräuchte eine neue GPU dann auch mehr Feuer als von meinem Ryzen 2600..
Wobei mit der hoffentlich kommenden Preisschlacht an der Spitze unten doch sicher bezahlbare Modelle für 1440p "Abfällen" sollten, oder zu naiv gedacht?

Das duerfte wohl in dem Preisbereich noch dauern, es sei denn AMD/RTG bringt einen leicht schnelleren Navi10/RX 5700(XT) Refresh, bspw. in Form von RX 6700(XT) Karten.

Preis-leistungstechnisch wirst Du da wahrscheinlich im RX 6700(XT) bis RX 6800(XT) Bereich fischen gehen muessen, zumal die Anforderungen an Spiele in den kommenden zwei Jahren (auch abseits der RT-Raytracing und DLSS Thematik) wieder steigen duerften.

Wo genau der Uebergang von RDNA1 Navi10 Refresh zu RDNA2 Navi23 stattfindet, und wie sich das ganze Radeon Grafikkarten-Portfolio gliedern wird, ist aber leider noch ziemlich neblig.

Natuerlich kannst Du bei einer RX 5700XT im Abverkauf zugreifen, die fuer Deine Ansprueche evt. noch eine Weile reichen duerfte, und irgendwann duerfte es diese GPUs auch dauerhaft unter 300 Euro in soliden Custom-Modellen geben.
 
Zuletzt bearbeitet:
Kacha schrieb:
Ich tippe darauf, dass du aus dem Game Design Bereich kommst?
Da bin ich nebst dem Bereich eines Engine Techies inzwischen gelandet...

Du redest von vorhanden Informationen, bzw., dass man sie errechnen kann. Das stimmt aber so nicht.
Mit Errechnen ist in diesem Sinne nicht gemeint, etwas Neues zu berechnen, sondern bereits bekannte Informationen mittels neugewonnener Informationen zu kumulieren. Du setzt ja nur ein Mosaik unter Einsatz von Jitter wieder zusammen.

Was vorhanden ist sind im Endeffekt sehr komplexe Formeln, die mit einer gewissen Genauigkeit etwas berechnen koennen.
Exakt, deswegen hat das DLSS- Bild ja auch nicht durchgehend bessere Qualität. Ursächlich dafür ist meist nicht konsistentes berechnetes Ausgangsmaterial. Wenn man zum Beispiel im Post- Processing anfängt, im Screenspace rumzufummeln oder da etwas nachträglich einzublenden.
Dort geht dann dem DLSS die essenziell wichtige Bewegungsinformation flöten sprich die Mosaiksteinchen werden nicht mehr an den richtigen Platz gesetzt und es gibt Fehler.

Und nein, die Genauigkeit ist nicht 100% und wird sie auch in Zukunft nicht sein.
Muss sie auch nicht sein, da durch die Nutzung der Bildinformation von 3 Bildern so viel Pixelmaterial vorhanden ist, dass es, wenn ordentlich programmiert auch mit Deutungsfehlern in der Praxis noch höher aufgelöst ist als nativ.

Dass das Netz ein paar mehr Informationen als das Bild benoetigt ist nicht weiter verwunderlich und dient nur dazu die Genauigkeit zu erhoehen. Erhoeht halt auch die Komplexitaet.

Was das Teil macht ist ein besserer "educated guess". Was dann halt zu Texturfehlern, bzw. teilweise auch zu verschwindenden Texturen fuehrt. Je nachdem wie man danach nochmal filtert.
Werden die Framebuffer richtig übergeben, ist es das nicht. Du kannst durch die Motion- Vektoren zielgerichtet bestimmen, wo die kumulierten Pixel anzuordnen sind.

Zudem scheinst Du bei DLSS1.0 stehengeblieben zu sein. Ich beziehe mich auf DLSS2.0. Dort werden die Texturen nicht angerührt. Die bleiben in voller Auflösung erhalten. Sollten da irgendwelche Texturen verschwinden, ist es schlampig oder fehlerhaft implementiert.
Aufgrund dieser letzten Aussage von Dir muss ich vermuten, dass Du Dir meinen Link nicht durchgelesen hast, in dem alles erklärt wird.

Das was du postest ist hauptsaechlich Nvidia Marketing und laesst halt die Probleme weg. Ist kein Problem wenn es nicht dein Themengebiet ist, aber so einfach wie du es darstellst ist es eben nicht und die anderen sind eben keine Geisterfahrer.
Wenn Du unter dem Terminus "nvidia Marketing" den faktischen technischen Ablauf der Bildgenerierung durch DLSS 2.0 verstehst, dann hast Du recht. Das habe ich gepostet.

Da ich den ganzen Spaß gerade in unsere Engine integriere, kann ich Dir halt einfach nur erklären, was technisch Sache ist. Das kannst Du annehmen, musst es aber nicht.
Und doch- Es ist so einfach, wenn man eben vor der Verarbeitung durch DLSS saubere Renderinformation liefert.

Da spielen aber die alten Gewohnheiten der Optimierung vor dem TAA- Aufruf oftmals Streiche.
Die Programmierer gehen im Augenblick da noch einen Kompromiss ein. Denn noch müssen sie dafür Sorge tragen, dass die Spiele auch ohne DLSS möglichst performant laufen.
Deswegen wird getrickst. Dass es dann deshalb hier und da zu Artefakten kommt, nimmt man derzeit aufgrund der noch nicht allumfassenden Verbreitung von RTX- Karten noch billigend in Kauf.

Dort das Fass einer zweiten, fehlerfreien Renderpipeline nur wegen DLSS 2.0 aufzumachen ist ökonomisch einfach auch derzeit noch Unsinn. In Zukunft kann man aber grundsätzlich mit DLSS "in mind" planen. Dann werden auch sehr gute bis perfekte Implementationen dabei rumkommen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer, gesperrter_User und adAstra
Würde mich nicht wundern wenn AMDs Big Die in 7nm etwas mehr reine Rasterizing Leistung bringt als Nvidia. Ist aber gerade wegen RT und DLSS nur ein Teil des Gesamtpaketes.

Denke AMD kann mit TSMC die etwas bessere Fertigung verbuchen, ggf dichter packen. Spannend wird es, aber allein DLSS ist schon etwas zum Killer Freature mutiert.
 
FrittiDeluxe schrieb:
Je näher wir den neuen GPU Generationen kommen desto mehr frage ich mich, wie teuer ein Modell wird, das meinen bescheidenen Wunsch nach 100+ FPS auf 1440p realisiert.
Als Mittelklasse-GPU Benutzer mußt Du eben abwarten, bis die Gebrauchtpreise für die ehemals HighEnd-GPUs sinken, ganz einfach. Wenn Du Dir das nicht leisten willst (oder kannst), muß Du eben bis dato verzichten.
FrittiDeluxe schrieb:
Wobei mit der hoffentlich kommenden Preisschlacht an der Spitze unten doch sicher bezahlbare Modelle für 1440p "Abfällen" sollten, oder zu naiv gedacht?
Die wird es nicht geben.
 
  • Gefällt mir
Reaktionen: gesperrter_User
@Coeckchen

Würdest du die Aussage so wiederholen wenn die gleiche Karte bei einem gesunden Preisgefüge 25-50% günstiger wäre? Nur so zur Info, allein zwischen 2016 und 2019 hat sich nvidias Umsatz ca. verdoppelt und der Gewinn mehr als verfünffacht.
Ach ja, es ächzen mehr als genug über die Mietsteigerungen.
 
Krautmaster schrieb:
Den Hirnschmalz überlässt man an vielen Stellen einfach der KI, was auch durchaus Sinn macht.
Sehe ich anders. NV nutzt die KI nur um das Hoch skaliert Bild später wieder zu schärfen und um Artefakte zu vermeiden (wobei zur Artefakt Vermeidung werden eben 3 Bilder in Summe betrachtet plus die Interpolation der zu erwartenden Bewegung - was aber rei heuristisch ist). So viel KI spielt also gar nicht mit. Was aber anscheinend ein sehr kluger Schachzug war, war wohl auch die KI an 16k Bildern lernen zu lassen - das führt evtl. auch dazu das die Ergebnisse dann so "scharf" aussehen... In den Standbilder sind die Ergebnisse ja schon sehr beintruckend - auch wenn NV da nur Vergleiche zu den bisherigen Alternativen bringt - der Vergleich zum nativen 4k Bild fehlt ja. (zumindest bei den Bildern auf WCTF)
 
pietcux schrieb:
Worin besteht eigentlich der Vorteil eines AMD only Systems? Der PC als Plattform hat doch grade den Vorteil der Auswahl verschiedener Hesteller für die jeweiligen Komponenten. Das erzeugt dann Innovation und Wettbewerb. Sonst schau mal bei Apple rein, alles von denen vorgegeben und was es nicht gibt gibt es eben nicht. So wie es Raytracing eben bislang nicht von AMD gibt. Da sagt man dann, das brauche ich nicht, oder?
Ich mache es weil ich Bock drauf habe und AMD sich zufällig wieder bei den CPU's gegen Intel behaupten kann. Dass ich AMD auch noch als Grafikkarte wähle, ist dem geschuldet dass ich einfach wieder was neues probieren möchte. Hatte seit bestimmt seit 6 Jahren keine AMD Karte mehr und in der Zeit hat sich viel getan.
CrustiCroc schrieb:
Gut gesagt ! Manchen haben echt irgendeinen seltsamen "Tick".
Intel und Nvidia : BÖSE !
AMD : DIE GUTEN !
Wer clever ist, nutzt das beste aus beiden Welten.
Du nimmst dir ganz schön viel raus mir vorzuwerfen ich habe einen Tick. Ich habe jetzt jahrelang ein Notebook mit Intel/Nvidia gehabt und ich bin immernoch sehr zufrieden damit. Da kann ich überzeugt behaupten, dass ich gerne über den Tellerrand schaue und abwäge was das Beste für mich ist. Weder sind Intel noch AMD noch Nvidia oder sonstwas für große Namen aus der Computer- oder Smartphonewelt für mich böse oder gut. Ich entscheide was das Beste für mich und meinen Geldbeutel ist. Mein Geld meine Entscheidung...
 
  • Gefällt mir
Reaktionen: Sun-Berg, CrustiCroc und PHuV
@larz ich frag mich ja nur warum es bei dir kribbelt oder so, wenn du ein reines AMD System bauen kannst. Mal angenommen AMD liefert eine deutlich geringere Performance als angenommen, was passiert bei dir denn dann? Du hast halt das "reine" AMD System so herausgestellt. Ansonsten, mach was du willst, mir grad egal.
Wenn ich ein neues System baue sind mir die Hersteller völlig egal, ich freue mich immer wenn es das erste mal erfolgreich hochfährt und bunte Bilder macht.
 
Novasun schrieb:
Sehe ich anders. NV nutzt die KI nur um das Hoch skaliert Bild später wieder zu schärfen und um Artefakte zu vermeiden (wobei zur Artefakt Vermeidung werden eben 3 Bilder in Summe betrachtet plus die Interpolation der zu erwartenden Bewegung - was aber rei heuristisch ist).
Die KI blickt nicht auf die drei Einzelbilder und hat auch nichts mit der Auswertung der Motion Vektoren zu tun.
Die KI macht genau das, was Du oben beschreibst, nämlich Artefakte aufzuspüren und die Charakteristika eines durch Antialias geglätteten hochauflösenden Bildes zu übertragen. Das findet im finalen Renderpass statt.

Die drei Bilder und deren Akkumulation werden rein dafür gebraucht, um eine möglichst hohe Auflösung für das Ausgangsmaterial für die KI "zusammenzupatchen" durch einen sturen, relativ einfach gehaltenen, wenn auch in der Berechnung aufwändigen Algorithmus.

So viel KI spielt also gar nicht mit.
Exakt, weswegen die Informationen des Bildes ja auch nicht hauptsächlich dazugedacht oder erraten sind, wie es hier immer vielfach vermutet wird.
 
Zuletzt bearbeitet:
larz schrieb:
Hatte seit bestimmt seit 6 Jahren keine AMD Karte mehr und in der Zeit hat sich viel getan.

Nein, AMD hat seit der R9 290/390 eig keinen Hammer mehr rausgehauen, und dann die Konter gegen NV kamen meist auch viel zu spät....in den letzten 6 Jahren war NVidia immer der Platzhirsch und war Effizienztechnisch abgeschlagen. Dazu noch relativ miese DX11 Performance weswegen ja Mantle entwickelt wurde dass in Vulkan und DX12 aufgegangen ist. Simmer mal ehrlich - Bei Amd hat sich an der Gesamtsituation im Grafikkartensektor bisher kaum was getan. Ich hoffe nur das ändert sich bald. Ich würde meine 2080ti gerne durch ne AMD ersetzen, genau wie die 1070 davor und die 970 davor...und wenn noch DLSS dazu kommt sieht AMD gar kein Land mehr. Da kann selbst meine RTX2060 im Notebook gegen die Aktuellen Desktop Ableger von AMD anstinken die nichts vergleichbares haben.
 
Demon_666 schrieb:
Immer diese Mär vom ach so schlechten AMD-Treiber.

Das is keine Mär sondern der Treiber ist einfach Müll. Solange man vor einem Kauf erstmal nachschauen muss welche Games laufen und welche nicht, solange kann dieser Elektroschrott keine Option sein.

Mal sehen was ich mit meiner 5500XT mache - vermutlich in einem Rechner für nen Kumpel verbauen.

Die nächste GPU wird auf jedenfall wieder ein NV. Egal wie schnell und günstig AMD auch sein mag, ich brauch Hardware die funktioniert.
 
Coeckchen schrieb:
Nein, AMD hat seit der R9 290/390 eig keinen Hammer mehr rausgehauen, und dann die Konter gegen NV kamen meist auch viel zu spät....in den letzten 6 Jahren war NVidia immer der Platzhirsch und war Effizienztechnisch abgeschlagen. Dazu noch relativ miese DX11 Performance weswegen ja Mantle entwickelt wurde dass in Vulkan und DX12 aufgegangen ist. Simmer mal ehrlich - Bei Amd hat sich an der Gesamtsituation im Grafikkartensektor bisher kaum was getan. Ich hoffe nur das ändert sich bald. Ich würde meine 2080ti gerne durch ne AMD ersetzen, genau wie die 1070 davor und die 970 davor...und wenn noch DLSS dazu kommt sieht AMD gar kein Land mehr. Da kann selbst meine RTX2060 im Notebook gegen die Aktuellen Desktop Ableger von AMD anstinken die nichts vergleichbares haben.

Würde ich nicht so unterschreiben... also die RTX2060(S) und 2070(S) kann man gut durch 5700 und 5700XT ersetzen. die 5% Leistung die zur 2070S feheln macht sie mit 100€ weniger locker weg.
Ergänzung ()

ZeT schrieb:
Das is keine Mär sondern der Treiber ist einfach Müll. Solange man vor einem Kauf erstmal nachschauen muss welche Games laufen und welche nicht, solange kann dieser Elektroschrott keine Option sein.

Mal sehen was ich mit meiner 5500XT mache - vermutlich in einem Rechner für nen Kumpel verbauen.

Die nächste GPU wird auf jedenfall wieder ein NV. Egal wie schnell und günstig AMD auch sein mag, ich brauch Hardware die funktioniert.

Also ich hab in Spielen mit AMD Karten gar keine Probleme. Im Profibereich ist das schon etwas anderes da sind NV Treiber deutlich besser. Aber für die Otto normal Verbraucher öhm nee... meine 5700XT läuft seit 19.10. ohne probleme. Auch meine RX480, lief ohne Probleme und alle die AMD Karten davor... genauso wie ich mit meinen NV Karten keine probleme hatte deshalb bringt NV ja ihren Game Rdy Treiber raus für jedes spiel und AMD ihren Adrenalin geupdatet...

Different Company same shit würde ich sagen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: E1nweg
Wadenbeisser schrieb:
Wo siehst du also das Potential für deine Rechtfertigung zu dieser Preissteigerung abseits der Gewinnmaximierung, welche sich auch gut in deren Geschäftszahlen finden läßt?

Die 780Ti startete bei 699$, die 2080Ti bei 1199$. Die Fläche ist um 30% gewachsen, die Fertigungskosten um 20% gestiegen, also haben wir alleine schon bei den Produktionskosten eine Steigerung von über 50%. Die 780Ti wurde mit 3GB GDDR5 Speicher ausgeliefert, die 2080Ti mit 11GB GDDR6, auch hier darfst du definitiv einen Aufpreis berechnen. Rechne dann noch die gestiegegen Kosten für die Komponenten, schließlich besteht die Karte aus mehr als nur dem GPU Chip, was bleibt am Ende übrig?

Hat Nvidia wegen fehlender Konkurenz die Preise höher angesetzt, als sie gezwungen wären? Mit Sicherheit! Die Behauptung die Preisentwicklung wäre alleine der Gewinnmaximierung geschuldet ist aber völlig aus dem Finger gesaugt. Ich bin auf jeden Fall auf die Preisgestaltung der kommenden AMD GPUs gespannt und bin mir ziemlich sicher, dass hier einige noch staunen werden und das nicht im "positiven" Sinne.
 
  • Gefällt mir
Reaktionen: KlaraElfer
@xexex

Wie ich bereits schrieb fing das Spiel mit der Titan (Feb. 2013) als Preistreiber bereits bei der normalen 780er (Mai 2013) an und nein, +30% Fläche und nochmal 20% gestiegene Fertigungskosten oben drauf sind nicht +50% sondern +36% im Bezug auf den Ausgangszustand. Spass mit der Prozentrechnung eben.

Zudem fehlen bei dir beim Speicher jegliche Preisangaben zum jeweiligen Stand, womit die Aussage nutzlos ist.
 
ZeT schrieb:
Das is keine Mär sondern der Treiber ist einfach Müll. Solange man vor einem Kauf erstmal nachschauen muss welche Games laufen und welche nicht, solange kann dieser Elektroschrott keine Option sein.

Mal sehen was ich mit meiner 5500XT mache - vermutlich in einem Rechner für nen Kumpel verbauen.

Die nächste GPU wird auf jedenfall wieder ein NV. Egal wie schnell und günstig AMD auch sein mag, ich brauch Hardware die funktioniert.
Das ist gelinde gesagt Humbug. Keiner muss "vor einem Kauf nachschauen", weder bei AMD noch bei NVidia.
Sofern kein HW-Defekt vorliegt, funktioniert AMD-HW genauso wie NVidia-HW....

Ich würde erst einmal das eigene System checken. Denn es gibt ja mehr als genug user, bei denen der Treiber funktioniert.
Vielleicht funktioniert ja deine restliche Hardware/Software nicht richtig...

Und falls du Karte und Treiber für Müll hältst: Wieso verbaust du die dann bei "deinem Kumpel"? Falls bei dem alles lüppt, kann es ja wieder nur an deiner config liegen.
Oder du magst deinen Kumpel einfach nicht... ;)
 
HanneloreHorst schrieb:
Trotzdem ist die Grafikabteilung gefühlt zu langsam, für echte Konkurrenz hätte es all das Anfang des Jahres geben müssen.
Naja, alle halbe Jahre eine neue Architektur?
Meinst nicht , dass das ein wenig viel verlangt ist? Der normale Zyklus ist 2 Jahre.
modena.ch schrieb:
@Summerbreeze
Meine GTX1080 verliert öfters mal den HDMI Audio Ausgang, dann kann ich den Treiber reparieren oder neu installieren und nach einem Neustart ist der Audioausgang wieder da.
Auch bei Grün ist der Treiber nicht immer perfekt.
Das gleiche Problem hatte ich auch mal. Aber mit einer W8100.
Stellte sich dann heraus, das es am Seasonic Fokus GX 550 lag. Die Spannungsversorgung war einfach nicht gut genug für den Stromsauger. ;)

Chismon schrieb:
wenn von "Vega als Rohrkrepierer" geschrieben wird, adressiere ich genau den zitierten Kommentar von ihm - mit den Renoir APUs und der Radeon VII (beide mit Vega Grafik) - der eben nicht passt bzw. zu allgemein gehalten ist, und der Verfasser sollte das dann eher praezisieren und nicht verallgemeinern, und nicht ich das unterschlagen bzw. nicht kritisieren duerfen ;).
Naja, in den Renoir APUs ist (die darauf optimierte) Vega eigentlich sehr ordentlich geworden und eine Radeon VII ist im semi-professionellen Bereich auch wegen der 16GB HBM2 und hoher Bandbreite auch nicht zu verachten (es soll ja auch Leute geben die Grafikkarten nicht nur zum Spiele daddeln nutzen) ;).
Ich bleibe dabei. Vega, gemessen an den Vorschusslorbeeren war ein Rohrkrepierer 1. Kajüte.
Noch zur CES 2017 hat der Sprücheklopfer aus Indien (Gott sei es gepriesen, er ist weg) den Hals so weit aufgerissen, das man gar nicht anders konnte, als Nvidias Pascal Gen als den neuen Wischmob von AMD anzusehen. Hätten sie damals den Ball etwas flacher gespielt, wäre alles gut gewesen.

In den APUs insbesondere Renoir spielt Vega groß auf, gar keine Frage. Da bin ich 100 Pro bei dir. Sie haben das Teil anfangs aber nicht im geringsten ausgelastet bekommen. Vega in der Renoirform mit HBM >Absolut Genial. Ich hoffe der Koduri setzt sein Projekt bei Intel genauso vor die Wand.

CrustiCroc schrieb:
Das ist einfach nur schwach von AMD, und ich behaupte mal das diejenigen die sagen : Bei MIR läuft die 57 XT ohne Probleme, sagen wir mal nicht ganz die Wahrheit sagen.
Bei mir läuft die nicht nur Einwandfrei. Ich behaupte sogar: Für mich ist die Perfekt.
Ich müsste wirklich Suchen, um etwas zu finden, was mich ärgert oder richtig stört.
Die Einstellmöglichkeiten im Treiber sind wenig Prickelnd. Da müssen sie definitiv mehr Hand anlegen.
Visualist schrieb:
So AMD hab hier jetzt knapp 1000 Euro vom Erlös meiner 2080Ti liegen und bin auch gern bereit noch was drauf zu legen wen ihr abliefert!
Gratulation zu dem guten Erlös. :) In zwei Monaten, wären das wohl kaum wenig mehr als 600 gewesen.
DavidG schrieb:
Und aktuell verdient AMD darüber auch gut Geld. Und wie man hier lesen durfte, haben sie für Ryzen 3 extrem hohe Kapazitäten gebucht. Dadurch dürfte die Marktdurchdringung weiter steigen, es sei denn, die Dinger floppen.
Deshalb wird AMD nicht am Hungertuch nagen, nur wenn ein paar Gamer zu Nvidia greifen. Gerade, bei den hohen Preisen, die sie für die Ryzens verlangen (können).
Hohe Preise? Nö. Wenn hier jmd hohe Preise aufruft, ist es deine Lieblingsfirma. ;)
Ich habe gestern noch nach einem Intel Äquivalent zu den Ryzen 4650G und 4750G gesucht. Unter 530€ für einen 8 Kerner kommt man da nicht weg.
Ebu85 schrieb:
Im Profibereich ist das schon etwas anderes da sind NV Treiber deutlich besser.
What?? Entschuldigung, aber von welchem Planeten kommst Du denn gerade?
Die AMD Enterprise Treiber sind mit das stabilste was Du bekommen kannst.
Da hätte ich aber gern mal deine Gründe erfahren.
 
Ebu85 schrieb:
Also ich hab in Spielen mit AMD Karten gar keine Probleme. Im Profibereich ist das schon etwas anderes da sind NV Treiber deutlich besser. Aber für die Otto normal Verbraucher öhm nee... meine 5700XT läuft seit 19.10. ohne probleme. Auch meine RX480, lief ohne Probleme und alle die AMD Karten davor... genauso wie ich mit meinen NV Karten keine probleme hatte deshalb bringt NV ja ihren Game Rdy Treiber raus für jedes spiel und AMD ihren Adrenalin geupdatet...

Different Company same shit würde ich sagen

Dead or Alive, NieR und Nioh sind zB drei Spiele die nicht funktionieren. Ist natürlich doof das das genau drei Spiele sind die ich immer wieder gerne zocke. NieR und Nioh könnte ich ja verkraften, aber ein Dead or Alive muss funktionieren.
Ergänzung ()

Demon_666 schrieb:
Das ist gelinde gesagt Humbug. Keiner muss "vor einem Kauf nachschauen", weder bei AMD noch bei NVidia.
Sofern kein HW-Defekt vorliegt, funktioniert AMD-HW genauso wie NVidia-HW....

Nein, das ist ein bekanntes Problem. Habs selbst auch erst nicht geglaubt, bis ich nach stundenlangem gebastel und Neuinstallationen mal danach gesucht habe und sich rausstellte das diverse Games einfach nicht starten.
 
Wadenbeisser schrieb:
Wie ich bereits schrieb fing das Spiel mit der Titan (Feb. 2013) als Preistreiber bereits bei der normalen 780er (Mai 2013) an und nein, +30% Fläche und nochmal 20% gestiegene Fertigungskosten oben drauf sind nicht +50% sondern +36% im Bezug auf den Ausgangszustand.

Rechne nochmal!

100% - 100€
130% (Fläche) - 130€
20% (Preis) - 156€

Ja es ist eine Milchmädchenrechnung, da Kosten für den GPU Chip nur einen Teil der Gesamtkosten einer Grafikkarte ausmachen. Es zeigt aber auch wunderbar welche Preise auf uns zukommen, wenn die Fertigungskosten nicht um 20% sondern 200% steigen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer
Zurück
Oben