News AMD Navi: Custom-Lösungen der Radeon RX 5700 kommen im August

Chismon schrieb:
Ja, das kann ich vollkommen verstehen, Anno 1800 ist m.E. auch ein Armutszeugnis fuer Blue Byte/Ubisoft aus entwicklungstechnischer Sicht.

Das ist aber leider nichts neues bei BlueByte/Ubisoft, denn die vorherigen Anno-Titel haben auch nur Minimalunterstuetzung fuer AMD/RTG GPUs geliefert (so dass das Spiel gerade noch halbwegs laeuft auf AMD/RTG-GPUs oder trotz eigentlich mehr als ausreichender GPU-Leistung relativ unterirdisch eben).

AMD/RTG-GPU-Besitzern wie Dir und anderen wuerde ich daher empfehlen dem Studio/Unternehmen - in dem Fall BlueByte/Ubisoft - einen Denkzettel zu verpassen und das Spiel nicht mehr zu kaufen, bevor es nicht fuer Minimal-/Grabbeltischpreise zu haben ist, sozusagen als "Anerkennung" fuer deren Minimalleistung bei der Umsetzung/Entwicklung fuer AMD/RTG Grafikkarten ;).

Sich langjaehrigem oder komplettem Verzicht auf ein Spiel auszusetzen, schreibt sich natuerlich einfach, aber ich denke, es gibt genuegend ebenbuertige Aufbaustrategiespiele (mit etwas anderem Ansatz) und anders werden BlueByte/Ubisoft daraus nicht lernen und findet kein Umdenken statt (bei dem Siedler Remake blueht AMD/RTG-GPUlern evt. das gleiche, wenn BlueByte die gleiche Engine und Herangehensweise an den Tag legt :rolleyes:).

Dort versteht man leider nur wegbrechende, zuvor als sicher einkalkuliert geglaubte Gewinne und fuer mich ist ein durchwachsen umgesetzter (da ganz klar nur einseitig optimierter) BlueByte/Ubisoft-Titel sicherlich nicht entscheidend fuer den Kauf einer Grafikkarte, aber es soll ja Leute geben, die sich mit dem vorwiegenden spielen eines Spiels ueber Jahre hinweg zufrieden geben (ich gehoere nicht dazu).

Mach' Dir nichts aus Deiner Fehlprognose, das kann den besten/groessten Kennern hier passieren ;).

Um die Jahrtausendwende gab es wenigstens noch andere Hersteller jenseits von nVidia und ATI (AMD/RTG) und damals hat man sich zwangslaeufig in Verzicht ueben muessen (etwa bei Erscheinen von Crysis), wenn man nicht eine Batzen Geld fuer ein neues System (oder zumindest neue GPU) auf den Tisch legen wollte wegen eines oder maximal zwei neuer Spiele.
So etwas gab es aber auch schon vorher in den 90ern als etwa Quake 1 heraus kam und ich mich dann auch gegen eine staendig teure Aufruesterei entschieden habe. und mit aelteren Titeln begnuegt habe.

Aus dem Grund habe ich es mit dem Verzicht vielleicht auch nicht so schwer, zumal ich auch heute noch mit Grobpixel-/Retrografik viel Spass haben kann und fuer mich Spielprinzip-, -idee und somit -spass im ?Vordergrund steht und eben nicht AAA Grafikblender von Ubisoft, EA, Activision-Blizzard, etc.

Aus dem Grund stellt sich bei mir bspw. bisher auch noch keine grossartige RTX-Feature-Affinitaet ein und kann mir das erst einmal gestohlen bleiben bzw. muss ich es nicht sofort haben (lieber spaeteres und dann ausgereifteres und halbwegs verbreitetes RT-Raytracing fuer echten Mehrwert, egal von welchem GPU-Entwickler).

Dass mittlerweile leistungstechnisch oft die Software-/Spielumsetzung der Entwickler entscheidender ist als die verbaute Hardware(-architektur), ist leider ein sehr trauriger Trend und da bekleckern sich die Entwickler sicherlich nicht mit Ruhm, zumal man auf dieser Grundlage dann auch nicht mehr fair und halbwegs objektiv Hardware vergleichen kann (weswegen m.E. Anno 1800 auch - als solch ein offensichtlicher Ausreisser - nicht in den CB-Test-Parcours gehoert, aber gut, ich moechte das jetzt nicht wieder aufwaermen und breit treten, denn darueber diskutiert wurde hier ja schon zu Genuege).

Von einer GTX 670OC kommend waere fuer mich eine Navi RX 5700 - anders als bei Dir - schon ein richtig deutlicher Sprung, aber eigentlich wollte ich schon gerne mehr (als voraussichtlich 8GB) Speicher und ich bin auch bereit fuer eine (untere) Oberklasse-Karte erstmalig mehr als 500 Euro zu zahlen (was momentan ja noch eine RTX 2070 ist), aber bald ist das eben keine untere Oberklasse mehr.
Wenn wir dann zum Herbst 2020 vorspulen, dem hoechstwahrscheinlichen Erscheinungsdatum fuer RyZen 4000 X670 Boards und Vermeer CPUs, dann gibt es vermutlich spuerbar verbilligte RyZen 3000 CPUs und vielleicht einige passende Boards dazu geben, aber das wohl mit Ausnahme der dann neuen/teuren X670 Boards einzig passiv gekuehlte X570 Aorus Xtreme duerfte da wohl nicht unbedingt zu den viel guenstiger gewordenen RyZen 3000 Boards gehoeren.
Dann duerfte eine Navi RX5700 oder Turing RTX 2070 wohl nur noch Mittelklasseleistung haben, wenn die (RTX) Turing Refresh- oder Ampere-GPU-Generation auf dem Markt erscheint und neben Navi20 Grafikkarten evt. auch schon erste Gaming-dGPUs von Intel auf den Markt gekommen sind.

Eigentlich sollte bei 3 GPU-Entwicklern ein groesserer Preisdruck hin zu sinkenden GPU-Preisen fuehren, aber Intel ist leider nicht bekannt fuer Preissenkungen, auch wenn sie Neueinsteiger waeren und sich erst einmal etablieren muessten.
So etwas koennte steigende Fertigungskosten bei der GPU-Weiterentwicklung auf immer kleiner werdenden Noden etwas kompensieren, aber das glaube ich erst, wenn ich es sehe ;).

Was die 8-Kerner angeht, weiss ich, was Du meinst, nur im Endeffekt geht es ja auch um die unterstuetze Leistung und bis 12-Kerner bei Spielen voll ausgereizt und auch preislich Minimalstandard werden, habe wir noch viele Jahre vor uns und auch bei 8 Kernen sehe ich erst nach und nach (auch wegen Ausstattung bei den kommenden Microsoft und Sony Konsolen) eine Optimierung und Ausreizung des Kernepotentials durch Entwickler kommen, so das das noch lange reichen wird fuer Spiele die dahingehend jetzt schon vorbildlich herangehen und 6+ CPU-Kerne nutzen.

Allerdings wird die Single- bis Dual-Core-Leistung immer noch bei weniger gut optimierten Titeln relevant vorerst bleiben und da duerftest Du mit den RyZen 3000 eben durch den IPC-Zuwachs mehr als nur ein einfaches Sidegrade vor Vorgaengergeneration geboten bekommen (das einfache Sidegrade waere dann wohl eher bei den Zen3-Vermeer-CPUs zu erwarten (kommend von den Zen2-Matisse-CPUs), weil 7nm+ nicht so schrecklich viel mehr an Leistung bringen durfte laut AMDs CTO Mark Papermaster.

Naja ich werde es mir auch erstmal nicht kaufen (Anno meine ich). Ich bin sehr rabiat und standhaft was sowas angeht. Ich habe bis heute nie GTA V gespielt, weil ich es bis heute auch noch nicht für 10€ kaufen konnte. Ich wollte die Politik von Take2 nicht unterstützen. Single Player Spielern Mods zu entziehen war das letzte...war nur logisch das rückggängig zu machen, aber deshalb werde ich auch nie mehr als 10€ für ein Rockstar Game mehr ausgeben. Also ich bin beim Boykottieren voll dabei...diese "Leaks" von Larian und einem evtl. BG3...wenn das ein Epic Exclusive wird, werde ich es mir nicht kaufen. Auch wenn das das Game ist auf das ich am meisten warte. Und wenn es nur ein Jahr exklusiv ist, werde ich es mir auch erst für nen 10er kaufen, weil ich sowas nicht unterstütze. Zumal ich mir nicht wirklich vorstellen kann wie ein Baldur's Gate von Larian aussehen soll.

Was ich klasse an meiner Vega 56 finde ist, dass ich zumindest teilweise spätere Games die mehr als 8 GB brauchen werden an VRAM, mit dem HBCC überbrücken kann. Ist zwar ein Pflaster aber ich habe schon Benches gesehen wo plötzlich Ruckler durch 3 GB Ram Allokation für HBCC Ruckler geheilt haben in 1440p. Allerdings in Games die ich selber nicht spiele (FF 15 unter anderem, sowie Black Ops 4). Ich denke das ist ein unterschätztes Feature was in 4-5 Jahren zum Tragen kommen wird. Besonders wenn man dann schon mit 32 GB Ram hantiert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Chismon und Smartbomb
thepusher90 schrieb:
... werde es mir auch erstmal nicht kaufen (Anno meine ich). Ich bin sehr rabiat und standhaft was sowas angeht. Ich habe bis heute nie GTA V gespielt, weil ich es bis heute auch noch nicht für 10€ kaufen konnte. Ich wollte die Politik von Take2 nicht unterstützen. Single Player Spielern Mods zu entziehen war das letzte...war nur logisch das rückggängig zu machen, aber deshalb werde ich auch nie mehr als 10€ für ein Rockstar Game mehr ausgeben. Also ich bin beim Boykottieren voll dabei...diese "Leaks" von Larian und einem evtl. BG3...wenn das ein Epic Exclusive wird, werde ich es mir nicht kaufen. Auch wenn das das Game ist auf das ich am meisten warte. Und wenn es nur ein Jahr exklusiv ist, werde ich es mir auch erst für nen 10er kaufen, weil ich sowas nicht unterstütze. Zumal ich mir nicht wirklich vorstellen kann wie ein Baldur's Gate von Larian aussehen soll.

Was ich klasse an meiner Vega 56 finde ist, dass ich zumindest teilweise spätere Games die mehr als 8 GB brauchen werden an VRAM, mit dem HBCC überbrücken kann. Ist zwar ein Pflaster aber ich habe schon Benches gesehen wo plötzlich Ruckler durch 3 GB Ram Allokation für HBCC Ruckler geheilt haben in 1440p. Allerdings in Games die ich selber nicht spiele (FF 15 unter anderem, sowie Black Ops 4). Ich denke das ist ein unterschätztes Feature was in 4-5 Jahren zum Tragen kommen wird. Besonders wenn man dann schon mit 32 GB Ram hantiert.

Finde ich klasse, dass Du Deinen Prinzipien - was den Spielekauf angeht - so treu geblieben bist und bleibst, eine sehr gute Einstellung :daumen: !

Ich wuenschte, es gaebe viel mehr Gamer von Deiner Sorte ;).

Solange Du mindestens 32 GB im System hast, duerfte HBCC schon gut zum tragen kommen koennen, das stimmt, und wer weis, was uns an zukuenftigen Speicherbelegungsauswuechsen durch die Entwickler noch bevor steht?

HBCC ist definitiv der Zeit voraus und es ist leider nicht das erste Mal, dass AMD dafuer wenig Anerkennung zur Marktveroeffentlichung bekommt, sondern solche moeglicherweise erst spaet im Nachhinein erfaehrt. Vielleicht kann Navi ja sogar eine Weiterentwicklung/-optimierung in dem Bereich bieten, das ware natuerlich klasse.

Die andere Hoffnung waere erstmals DDR6-Speicher mit doppelter Kapazitaet (bspw. von Samsung) auf den Navi-Karten zu verbauen, weil im Prinzip nur der Platz fuer 8GB gebraucht wird, aber die 16 GB vorhanden waeren, was natuerlich auch zu RTX Turing vergleichbar hohe Grafikkarten-Preise rechtfertigen koennte.

Naja, 'mal schauen was kommt (auch an moeglichen - neben VRS - ganz neuen Architektur-Features) bei den Navi-GPUs.
 
  • Gefällt mir
Reaktionen: TexHex, Tanzmusikus und thepusher90
Chismon schrieb:
Finde ich klasse, dass Du Deinen Prinzipien - was den Spielekauf angeht - so treu geblieben bist und bleibst, eine sehr gute Einstellung :daumen: !

Ich wuenschte, es gaebe viel mehr Gamer von Deiner Sorte ;).

Solange Du mindestens 32 GB im System hast, duerfte HBCC schon gut zum tragen kommen koennen, das stimmt, und wer weis, was uns an zukuenftigen Speicherbelegungsauswuechsen durch die Entwickler noch bevor steht?

HBCC ist definitiv der Zeit voraus und es ist leider nicht das erste Mal, dass AMD dafuer wenig Anerkennung zur Marktveroeffentlichung bekommt, sondern solche moeglicherweise erst spaet im Nachhinein erfaehrt. Vielleicht kann Navi ja sogar eine Weiterentwicklung/-optimierung in dem Bereich bieten, das ware natuerlich klasse.

Die andere Hoffnung waere erstmals DDR6-Speicher mit doppelter Kapazitaet (bspw. von Samsung) auf den Navi-Karten zu verbauen, weil im Prinzip nur der Platz fuer 8GB gebraucht wird, aber die 16 GB vorhanden waeren, was natuerlich auch zu RTX Turing vergleichbar hohe Grafikkarten-Preise rechtfertigen koennte.

Naja, 'mal schauen was kommt (auch an moeglichen - neben VRS - ganz neuen Architektur-Features) bei den Navi-GPUs.

Was hältst du von dem Gerücht, dass evtl. in 2020 eine Navi kommt die der 2080 Ti (Hoffentlich aber mit 16 GB DDR6) das Wasser reichen kann?
 
thepusher90 schrieb:
... hältst du von dem Gerücht, dass evtl. in 2020 eine Navi kommt die der 2080 Ti (Hoffentlich aber mit 16 GB DDR6) das Wasser reichen kann?

Das ist durchaus moeglich, aber schwer einzuschaetzen, denn leider ist immer noch viel zu wenig ueber die neue RDNA-Architektur von AMDs/RTGs Navi-Grafikkarten bekannt und so gut wie AMD/RTG bisherige Leaks vermieden wurden und man in Sachen Navi bisher auf dem Holzweg war, so ist es durchaus moeglich, dass erst zum Marktstart der Vorhang um die Architekturneuerungen fallen wird auf Basis der man evt. Navi20 bzw. das RDNA-Potential wird einschaetzen koennen.

Die Frage ist, ob/inwieweit man zudem auf RT-Raytracing setzen wird, was - aehnlich wie bei RTX Turing - fuer anderweitig eingesetzte Ressourcen spricht, die nicht dem allgemeinen Leistungsvermoegen der GPUs zugute kommen werden?

Fuer moeglich halte ich es prinzipiell schon, weil damals kurz vor Vega-Start kolportiert wurde, dass schon Entwickler-Ressourcen innerhalb AMDs/RTGs zur Arbeit an Navi abgezogen wurden und damit natuerlich als Neuanfang/Erstgeneration einer neuen Architektur die Bedeutung als Grundstein zukuenftiger Architekturen fuer AMD/RTG ziemlich hoch angesiedelt sein duerfte.

Was bietet die RTX2080Ti rein auf die Leistung (nicht RTX-Features) bezogen(?), nun ca. 30-35% mehr Leistung als die RTX 2080 (schwankend auch anhand der Bandbreite und unterschiedlichem Speicherausbau), also im Schnitt der mehr auf nVidia-Architektur-optimierten Spiele heutzutage ca. 40 bis 45% schneller als die Referenz-Radeon VII.

Ich glaube nicht, dass man diese Leistung (ausser in Einzelfaellen/bei Spielen die der RDNA-Architektur extrem gut liegen) mit Navi schon grossartig wird uebertrumpfen koennen, aber das man dieser Leistung nahe kommen kann oder gar auf Augenhoehe liegen kann, kann ich basierend auf aktueller Informationslage nicht ausschliessen, nur ...

... es kommt ja noch der RTX-Turing Refresh bzw. Ampere (oder wie auch immer nVidias naechster GPU-Streich heissen wird) Generation vermutlich Herbst bis Ende 2020 und da wird nVidia leider wohl wieder im zweistelligen Prozentbereich davon wegziehen koennen (zumal bei denen noch ein Shrink auf 7nm(+) bevorsteht) und es natuerlich weiterhin keine Alternative von AMD/RTG im 80erTi-Bereich fuer Hobby-Enthusaisten und Early Adopter deutlich ueber 1000 Euro geben duerfte.

Wenn man also RTX2080Ti Leistung trotz i.d.R. nVidia-lastiger Spieloptimierungen erreichen kann mit einem Navi20 GPU-Flaggschiff, wird man wohl Herbst bis Ende 2020 evt. immer noch in etwa auf RTX 3080 Leistungsniveau liegen koennen, was durchaus respektabel waere, aber wie erwaehnt, das ist alles hochspekulativ und preislich sowie spielgenretechnisch war ich fuer 80erTi (und frueher Titan-)GPUs nie die Zielgruppe (als Spieler von vorwiegend Rundenstrategie und RPGs, gut ein MechWarrior 5 koennte das dann evt. doch rechtfertigen - wenn es spektakulaer fordernd oder entwicklertechnisch schlecht optimiert umgesetzt waere - ebenso wie ein Einstieg in PC-VR) bzw. waere das reiner Luxus und vermutlich vergeudete Leistung, die ich (noch) nicht benoetige ;).

Ob Navi20 speichertechnisch auf GDDR6 oder HBM 2 oder gar 3 laufen wird, ist auch noch nicht heraus und vielleicht wird Navi20 eben kein "Navi" sondern bekommt als Oberklasse einen neuen Namen und eben wie in den letzten Generationen ueblich HBM spendiert mit mehr Bandbreite. Hoffentlich wird es dann aber - anders als bei Radeon VII - auch wieder reichlich Custom-Modelle der Boardpartner geben.

Uebrigens gibt es laut WccfTech erste Anzeichen dafuer, dass nVidia mit einer "Super"-Edition oberhalb von einer RTX 2070 (und um sicher zu gehen ebenso oberhalb einer RTX 2080) 'mal kurzer Hand (sozusagen aus der Schublade ... ach nee, das war ja Intel :p ... also, dem Aermel geschuettelt) in die Parade fahren wird bei der Navi-Vorstellung mit ... war etwas anderes zu erwarten?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Strahltriebwerk
Volker hat einen Threadripper als Profilbild? Ist die Hölle zugefroren? :D
 
Chismon schrieb:
Das ist durchaus moeglich, aber schwer einzuschaetzen, denn leider ist immer noch viel zu wenig ueber die neue RDNA-Architektur von AMDs/RTGs Navi-Grafikkarten bekannt und so gut wie AMD/RTG bisherige Leaks vermieden wurden und man in Sachen Navi bisher auf dem Holzweg war, so ist es durchaus moeglich, dass erst zum Marktstart der Vorhang um die Architekturneuerungen fallen wird auf Basis der man evt. Navi20 bzw. das RDNA-Potential wird einschaetzen koennen.

Die Frage ist, ob/inwieweit man zudem auf RT-Raytracing setzen wird, was - aehnlich wie bei RTX Turing - fuer anderweitig eingesetzte Ressourcen spricht, die nicht dem allgemeinen Leistungsvermoegen der GPUs zugute kommen werden?

Fuer moeglich halte ich es prinzipiell schon, weil damals kurz vor Vega-Start kolportiert wurde, dass schon Entwickler-Ressourcen innerhalb AMDs/RTGs zur Arbeit an Navi abgezogen wurden und damit natuerlich als Neuanfang/Erstgeneration einer neuen Architektur die Bedeutung als Grundstein zukuenftiger Architekturen fuer AMD/RTG ziemlich hoch angesiedelt sein duerfte.

Was bietet die RTX2080Ti rein auf die Leistung (nicht RTX-Features) bezogen(?), nun ca. 30-35% mehr Leistung als die RTX 2080 (schwankend auch anhand der Bandbreite und unterschiedlichem Speicherausbau), also im Schnitt der mehr auf nVidia-Architektur-optimierten Spiele heutzutage ca. 40 bis 45% schneller als die Referenz-Radeon VII.

Ich glaube nicht, dass man diese Leistung (ausser in Einzelfaellen/bei Spielen die der RDNA-Architektur extrem gut liegen) mit Navi schon grossartig wird uebertrumpfen koennen, aber das man dieser Leistung nahe kommen kann oder gar auf Augenhoehe liegen kann, kann ich basierend auf aktueller Informationslage nicht ausschliessen, nur ...

... es kommt ja noch der RTX-Turing Refresh bzw. Ampere (oder wie auch immer nVidias naechster GPU-Streich heissen wird) Generation vermutlich Herbst bis Ende 2020 und da wird nVidia leider wohl wieder im zweistelligen Prozentbereich davon wegziehen koennen (zumal bei denen noch ein Shrink auf 7nm(+) bevorsteht) und es natuerlich weiterhin keine Alternative von AMD/RGT im 80erTi-Bereich fuer Hobby-Enthusaisten und Early Adopter deutlich ueber 1000 Euro geben duerfte.

Wenn man also RTX2080Ti Leistung trotz i.d.R. nVidia-lastiger Spieloptimierungen erreichen kann mit einem Navi20 GPU-Flaggschiff, wird man wohl Herbst bis Ende 2020 evt. immer noch in etwa auf RTX 3080 Leistungsniveau liegen koennen, was durchaus respektabel waere, aber wie erwaehnt, das ist alles hochspekulativ und preislich sowie spielgenretechnisch war ich fuer 80erTi (und frueher Titan-)GPUs nie die Zielgruppe (als Spieler von vorwiegend Rundenstrategie und RPGs, gut ein MechWarrior 5 koennte das dann evt. doch rechtfertigen - wenn es spektakulaer fordernd oder entwicklertechnisch schlecht optimiert umgesetzt waere - ebenso wie ein Einstieg in PC-VR) bzw. waere das reiner Luxus und vermutlich vergeudete Leistung, die ich (noch) nicht benoetige ;).

Ob Navi20 speichertechnisch auf GDDR6 oder HBM 2 oder gar 3 laufen wird, ist auch noch nicht heraus und vielleicht wird Navi20 eben kein "Navi" sondern bekommt als Oberklasse einen neuen Namen und eben wie in den letzten Generationen ueblich HBM spendiert mit mehr Bandbreite. Hoffentlich wird es dann aber - anders als bei Radeon VII - auch wieder reichlich Custom-Modelle der Boardpartner geben.

Uebrigens gibt es laut WccfTech erste Anzeichen dafuer, dass NVidia mit einer "Super"-Edition oberhalb von einer RTX 2070 (und um sicher zu gehen ebenso oberhalb einer RTX 2080) 'mal kurzer Hand (sozusagen aus der Schublade ... ach nee, das war ja Intel :p ... also, dem Aermel geschuettelt) in die Parade fahren wird bei der Navi-Vorstellung mit ... war etwas anderes zu erwarten.

Es wird ja bereits vermutet, dass diese Navi Generation ein Hybrid aus RDNA und GCN ist. Wenn dann 2020 wirklich was als komplett RDNA erscheint könnte ich mir gut vorstellen, dass wir da 2080 Ti Performance sehen werden. Ich bin sehr auf Navi gespannt...ich hoffe die kann auch Boden in älteren DX11 Spielen gewinnen wie zb Witcher 3 etc. Hoffe das Bencht wer.
 
  • Gefällt mir
Reaktionen: Chismon
Laut pcgh kommen die erste Navi Karten mit den berüchtigten DHE Lüftern im Referenz Design im Juli. Custom dann im August.
 
Weiß man schon, ob Navi10 auch wie R VII 16GB HBM2 bieten wird?

Ich schwanke zwischen Radeon VII mit Wakü kaufen oder auf Navi 10 warten aber dafür ggf ne minimal schnellere (wenn überhaupt) GPU aber dafür mit halb so großem Vram kaufen.

Ideen oder Meinungen?
 
Bisher ist nur die Rede von GDDR6, nicht von HBM. Ob 16GB oder nicht steht noch in den Sternen - am 10.6. gibt vielelicht mehr infos. Ich würde 16Gb aber noch für unwahrscheinlich halten - frühestens nächstes Jahr mit der fetten Navi bzw Nextgen für High-End
 
  • Gefällt mir
Reaktionen: nighteeeeey
Artikel-Update: AMD hat heute noch einmal ganz offiziell bestätigt, dass der August-Termin stimmt. Ab Mitte August könnten demnach erste Partnerkarten verfügbar sein, Partnerkarten sollten zumindest Testern vorab zur Verfügung gestellt werden, daran arbeite das rote Team gerade.
 
Könnten, wow.
 
Super AMD, also gibts nen ganzen Monat wieder nur Brüller-Karten.
 
  • Gefällt mir
Reaktionen: dohderbert und Beitrag
Hmm.
X570 Kreissägen Boards gibts jetzt, attraktive B5XX Boards, evtl. ohne Lüfter, später.
Brüllkarten gibts jetzt, attraktive Custom-Karten später.

Ich erkenne da eine Art Masterplan :D
 
  • Gefällt mir
Reaktionen: ITX-Fan
NighteeeeeY schrieb:
Weiß man schon, ob Navi10 auch wie R VII 16GB HBM2 bieten wird?

Ich schwanke zwischen Radeon VII mit Wakü kaufen oder auf Navi 10 warten aber dafür ggf ne minimal schnellere (wenn überhaupt) GPU aber dafür mit halb so großem Vram kaufen.

Ideen oder Meinungen?
CB hat ja geschrieben, das NAVI`s Speichercontroller ja beides könnte HBM2 und eben GDDR6... Nur ist HBM2 eben teuer und nach den Tests scheint es diesmal nicht an Bandbreite zu fehlen...
 
Falls nächstes Jahr die High-End Grafikkarten von AMD wirklich die RDNA 2 Architektur einführen sollten, kann es doch auch sein das vllt die aktuellen 5700 Modelle nächstes Jahr ersetzt werden könnten. Meine GTX 1070 schafft leider kein 2K mehr. Die meisten Games muss ich dann auf Full-HD runtersetzen. Ich bin gespannt. Nächstes Jahr wird auch Nvidia bestimmt 7nm einführen mit einem kompletten Line-up. Da muss einfach AMD antworten. Hoffen wir mal das beste.
 
Unfug:
Naesh schrieb:
Die 1080 reicht nichtmehr für WQHD
Stimmt. Deshalb spiel ich auch auf 4K damit.
Regler alle stramm rechts am Anschlag, alles Ultra und MSAA auf 8x?
Naesh schrieb:
Dazu kein Raytracing , kein DLSS,
Warum DLSS Matschepampe immer noch als Feature benannt wird ist mir ein Rätsel.

Ist die VII im zweiten Bild hinten rechts ein Custom Design?
 
@Captain Mumpitz meine rx 480 Red devil hat 3 Lüfter. War trotzdem laut und heiß. Finde die 5700xt ganz interessant aber dieses Mal kaufe ich entweder das Referenzdesign und baue auf Wasser um (ohne scheint die 5700xt ja nicht auszuhalten sein) oder ich kaufe ein Partnerdesign und achte drauf, dass ich einen Wasserblock bekomme. Für meine Sapphire Pulse gibt es dank nano pcb nur einen Block von bisky und ich hätte gerne mehr Auswahl gehabt.
Wenn es ein Partner Design wird dann vermutlich sowieso wieder Sapphire. Hätte nicht gedacht, dass meine Vega 56 so leise bliebe trotz OC.
 
Affenzahn schrieb:
Warum DLSS Matschepampe immer noch als Feature benannt wird ist mir ein Rätsel.

Das L steht für Learning. Wenn du lernst wirst du schlauer. Und wenn der Supersampling Algorithmus lernt, wird er auch schlauer und damit das Bild besser.

Wenn man allerdings nicht lernen will, sondern gerne auf dem Stand der Featureeinführung stehen bleiben will, dann bleibt nur Matsch in der Birne hängen ;)
 
@Alexus6677 es geht auch anders ^^

https://twitter.com/HardwareUnboxed/status/1148113823137533952
D-7rbDoUIAEsxA3.jpg
 
  • Gefällt mir
Reaktionen: Alexus6677
wow die taichi sieht mal richtig schick aus.

ich muss ja sagen das mir die mainboards und gpus vom aussehen sehr gut gefallen.

aber das ist ja nicht alles xD
 
Zurück
Oben