News Ryzen 3000 & Radeon RX 3000: Fantastische Gerüchte zu AMDs CPU- und GPU-Zukunft

falkum schrieb:
Zero_Point: Vor einem Jahr stand dieser Kommentar hier überall. Nur das da immer die Rede davon war, dass 4 Kerne im Gamingbereich voll ausreichend und zukunftssicher sind.

Wie schnell sich doch die Zukunftssicherheit ändert...

Nur weil AMD jetzt 16 und mehr Kerne raushaut (wenn es denn stimmt) starten die Spiele mit 4 Kernen nicht mehr oder was ? Mit 6 Kernen und 12 Threads ist man erst einmal gut aufgestellt und daran wird sich jetzt so schnell auch nichts ändern. Die Spielindustrie will Geld verdienen und nicht die Leute zum Aufrüsten zwingen damit ihre Spiele überhaupt laufen. Die Entwickelung wird natürlich weiter gehen, aber nicht in so einem Tempo wie manch einer es gerne hätte.
 
  • Gefällt mir
Reaktionen: FreedomOfSpeech, hahaqp, JNS-K und 3 andere
Wenn amd wirklich 6-16 Kerne in den Mainstream bingt, dann werden auch 8 und 12 kerne bald ein performance boost bringen.

Gut so AMD !
 
  • Gefällt mir
Reaktionen: dohderbert
Das ganze Gerede von Zukunftssicherheit & Co. kann ich langsam nicht mehr hören, immer das selbe, Generation für Generation.

Ich ich kenne privat [und auch hier im Forum] Leute, die nutzen noch immer einen AMD Phenom II X4 965 BE, Intel Core i5-2500K oder gar i7-920 mit einer AMD Radeon RX 570 oder RX 580.

Sind die denn alle auf den Kopf gefallen?

Nein, sie haben nur weniger Ansprüche an fps und maximalen Details, oder können besonders gut mit den Reglern der Grafiksettings umgehen.

Denn man stelle sich mal vor, Computerspiele machen auch auf FullHD [oder gar 720p] und mittleren Details Spaß [man frage mal bei den Konsolenspielern nach.]

Zero_Point schrieb:
Ob du es glaubst oder nicht, aber im Gamingbereich sind 8 schnelle Kerne absolut zukunftssicher.

Vollkommen richtig, natürlich sind sie das. Mehr noch als auf die Anzahl der Cores, kommt’s doch aktuell noch immer auf die Frequenz an (einige nennen es Hochfrequenzkerne.] ;)

falkum schrieb:
Vor einem Jahr stand dieser Kommentar hier überall. Nur das da immer die Rede davon war, dass 4 Kerne im Gamingbereich voll ausreichend und zukunftssicher sind.

Sind sie doch auch. Jetzt davon auszugehen, dass das Portfolio der Game- und Softwareentwickler voll auf Multicore ausgerichtet ist und diese sagen, „Hey wir gehen primär auf 12-16 Cores!“, völlig unrealistisch [bis 2021/22.]

Holt schrieb:
Performance meint eben nicht die maximal mögliche Taktraten, dies ist einfach eine Fehlinterpretation von Leuten die entweder keine Ahnung haben oder bewusst überhöhte Erwartungen wecken wollen, auch wenn dies wohl nur vordergründig AMD hilft, im Nachhinein durch die Enttäuschung dann aber eher schadet.

Kann man ganz einfach so stehen lassen.

Ich würde auch nicht so übertrieben euphorisch sein und den Ball mal flach halten.

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: Gruml, ahuev0, Ernie75 und 9 andere
DerKonfigurator schrieb:
Wenn AMD mit Navi nix konkurrenzwürdiges bringt, dann kostet die RTX 3080 halt zu Release 2000€, Monopolstellung lässt grüßen.

Jep, Intel ist am Arsch, AMD Navi bedeutet nichts gutes für die neuen Konsolen in Sachen 4 K und 60 Frames und für den PC Gamer gibt es von Nvidia exklusiv 4 K 60 Frames für 2000 Euro inklusive niedrige Details in AAA Games . Mir völlig Latte wie schnell die neuen Ultravielekerne AMd CPUs werden . Aber für die Video und Render mehr Kerne Fraktion siehts Bombig aus.
 
  • Gefällt mir
Reaktionen: DerKonfigurator, dohderbert und SVΞN
Scheinbar ist Navi ja recht nah.

Jetzt mal was anderes:

zum RTX review hat man noch schnell FFXV und Hellblade in den Parkour aufgenommen - und die spiele sind die krassesten nvidia cherrypicks - technisch nicht zukunftsweisend und eigentlich schon ziemlich alt, dazu noch ziemlich verbugt (FFXV) und auf radeon kaum lauffähig (Hellblade, habe ich selber "gespielt"). jetzt kann man hier in der rangliste lesen:

Für die neuen Turing-Grafikkarten GeForce RTX 2070, GeForce RTX 2080 und GeForce RTX 2080 Ti sowie AMDs Radeon RX 590 hat die Redaktion einen abgepassten und moderneren Test-Parcours inklusive neuer Spiele verwendet. Entsprechend sind die Messwerte nicht miteinander vergleichbar. In den kommenden Monaten wird ComputerBase den Parcours vereinheitlichen.

Das wird dann auch der release parkour für Navi? ich hoffe doch nicht, denn die entwicklung hin zu pro nvidia ist sehr bedenklich:

alter parkour vs neuer parkour, gemittelt auf rx580 (da große bandbreite an benches)

parkour alt.PNG

https://www.computerbase.de/artikel/grafikkarten/rangliste.2487/

parkour neu.PNG

https://www.computerbase.de/artikel/grafikkarten/rangliste.2487/


vom alten parkour auf den neuen verliert die rx580 auf die 1060 3%, 6% zur 1070 und 11% auf die 1080.


und wenn man sich mal die performance der hälfte (8 von 16) spielen anschaut, wird auch schnell klar, wieso das so ist - trotz star wars battlefront und wolfenstein. ich glaube man braucht hier nicht drüber diskutieren, ob die performance der radeon karten hier "normal" ist, oder vielleicht doch eher müll-niveau erreicht. und das beim durchschnitt von 50% der spiele.

50% nvidia cherrypick.PNG

https://www.computerbase.de/artikel/grafikkarten/rangliste.2487/

dann drehen wir den spieß mal um - die andere hälfte der spiele, also müssen das ja "amd cherrypicks sein".

50% amd cherrypick.PNG

https://www.computerbase.de/artikel/grafikkarten/rangliste.2487/

das kann man anschauen, ohne sofort einen brechreiz zu bekommen. aber wie cherrypick ist der amd cherrypick wirklich?

releastest RX580:

rx580 customs release test.PNG

https://www.computerbase.de/artikel...hnitt_benchmarks_in_1920__1080_und_2560__1440

der "amd cherrypick" sieht hier auf einmal nicht mehr wirklich nach cherrypick aus und das obwohl im 2017er parkour so krempel wie anno, dishonored und shadow warrior 2 dabei ist, in denen eine fury x gegen die gtx 970 und 1060 FE verliert - ich habe damals schon gesagt: "wenn ihr vega mit dem parkour testet, wirds ein desaster".

nochmal zum auffrischen, weils so schön emotionsbeflügelnd ist, wenn man sich vor augen führt, dass damit die neuen high end karten von amd gebencht wurden.

achtet auch hier mal speziell auf den abstand von gtx 1060 auf vega.

vega test unfall.PNG

https://www.computerbase.de/artikel.../seite-4#diagramm-performancerating-1920-1080

also das waren ja jetzt einige schöne oder auch weniger schöne bunte bildchen, was ich aber damit sagen will, ist:


Bitte, CB Redaktion, killt Navi nicht im Releasetest mit einem grässlichen, biased Spieleparkour. FFXV und Hellblade haben da nix drin zu suchen.

Ihr tragt mit Euren Tests zum Erfolg bzw. Misserfolg der wichtigsten AMD Gaming GPU aller Zeiten bei!

Der Erfolg oder Misserfolg von Navi ist für AMD absolut wegweisend. Seid Euch dieser Verantwortung bewusst. Ich weiß nicht, wie es anderen geht, aber ich hätte gerne in Zukunft auch weiterhin noch Radeon Gaming GPUs.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: smalM, Grüner, Rock Lee und 30 andere
Schultzie schrieb:
Ich hab gehört es werden 32/64 Prozessoren mit einem Takt von 6,3 GHz und einem Stromverbrauch von 35 Watt... ;)
Also wenn ich 128 Kerne mit 10GHz bei 14W für 50€ bekomme, dann kaufe ich mir auch so eine CPU, vorher lohnt sich das nicht, den Unterschied kann man doch allenfalls messen aber gar nicht fühlen :freak:
schkai schrieb:
Nur weil AMD jetzt 16 und mehr Kerne raushaut (wenn es denn stimmt) starten die Spiele mit 4 Kernen nicht mehr oder was ?
Wieso? Es sind noch so viele Leute mit 4 Kernern unterwegs, da würde jeder Hersteller pleite gehen, wenn er diese Kunden aussperrt.
 
  • Gefällt mir
Reaktionen: Schultzie
duskstalker schrieb:
... zum RTX review hat man noch schnell FFXV und Hellblade in den Parkour aufgenommen - und die spiele sind die krassesten nvidia cherrypicks - technisch nicht zukunftsweisend und eigentlich schon ziemlich alt

Also Final Fantasy XV kam im März diesen Jahres raus und Hellblade im August 2017. Das ist nun wirklich noch nicht "alt", zeigt aber sehr schön wie schnelllebig die Konsumwelt geworden ist. Ist Battlefield V für Dich auch schon "alt"? :D

Abgesehen davon nutzt Hellblade die sehr weit verbreitete Unreal Engine 4 und zaubert ein Grafikfeuerwerk der Extraklasse auf den Bildschirm, das sich vor nichts und niemandem verstecken muss. Inwiefern ist das "technisch nicht zukunftsweisend"?

Es sind vom Indie- bis zum AAA-Bereich sprichwörtlich hunderte Titel mit Unreal Engine 4 in Arbeit. Das Spiel kann also durchaus als ein Unreal Engine Benchmark Titel herhalten. Es ist doch nicht CBs Schuld, wenn AMD ihre Treiber nicht für Titel wie Hellblade gebacken bekommen.
 
  • Gefällt mir
Reaktionen: Oneplusfan und Luzifer71
RYZ3N schrieb:
Kann man ganz einfach so stehen lassen.
Upps, aus der Ecke hätte ich dies nun nicht erwartet, aber gut zu sehen das es auch noch vernünftige AMD Fanboys gibt.
RYZ3N schrieb:
Ich würde auch nicht so übertrieben euphorisch sein und den Ball mal flach halten.
Eben, die Enttäuschung ist über nicht eingehaltene Versprechungen, auch wenn der Hersteller selbst sie nie gemacht hat, ist am Ende immer schlimmer als die Freunde über die real erreichen Fortschritte. RYZEN 3xxx wird sicher mehr Performance als seine Vorgänger haben, durch die 7nm mehr Effizienz (außer ggf. bei extrem hohen Taktraten) vermutlich wohl PCIe 4.0. Für einen GPU Hersteller macht dies doppelt Sinn, man muss den Kunden ja auch die passende Plattform damit sie die Grakas dann auch kaufen wollen. Was die neuen Chipsätze dann bieten werden, wird man abwarten müssen, die bisherigen waren für mich die größte Enttäuschung und von den PCIe Lanes her auf dem Niveau dessen was Intel bis zu der 90er Reihe geboten hat, da wäre es an der Zeit den Schritt nachzuvollziehen den Intel bei den 100er Chipsätzen gemacht hat, also PCIe 3.0 Lanes und bei den großen Chipsätzen reichlich davon. Wenn der Chipsatz dann noch einen PCIe 4.0 Uplink hat, umso besser. 12 PCIe 3.0 Lanes vom externen Chipsatz was plus der 4 des internen 16 ergibt, dabei 6 SATA Ports und dies auf einem Board mit ECC RAM Funktion und ich würde einen R9 3850X nehmen, wenn er 16 Kerne bei 4,3GHz @Allcore und Boost bis 5GHz ohne extreme Kühlung schafft und einen Pferdefuß wie der unvorhersagbaren und teils miesen Performance beim verschieden der Threads durch das OS wegen unterschiedlichen Taktraten der Dies wie bei den TR gibt.
 
  • Gefällt mir
Reaktionen: JNS-K, SVΞN und dohderbert
@Moriendor

FFXV ist ein gameworks bugfest:

https://www.gamersnexus.net/game-be...ous-misleading-benchmark-tool-gameworks-tests

und hellblade ist zwar ein tolles spiel, aber technisch für radeon eine absolute katastrophe. und das liegt nicht an den gerne gescholtenen amd treibern, sondern an den entwicklern (indie) und der UE4. das spiel ist als benchmark ungeeignet.

http://bfy.tw/LDDU

ich habs durchgespielt und von den letzten 60 minuten nichts mehr mitbekommen, die fps sind im letzten drittel des spiels immer weiter eingebrochen mit heftiger werdenden rucklern, bis zum endfight mit 8 fps und regelmäßigen 1 sekunde langen hängern und einem abspann, in dem der ton eine minute schneller war, als die ingame cutscene, weil das ding nur noch vor sich hingeruckelt hat. und ich habs nach dem sogenannten "amd fix" gespielt.

und mit "alt" meine ich folgendes: das spiel wurde mitte 2017 released, das ist schon eineinhalb jahre her - wieso jetzt plötzlich als benchmark? in dem spiel kann man nicht mal selber savegames laden - das ist ein lineares ding von vorne bis hinten, in dem man nur "weiterspielen" kann. super tolles spielkonzept aber einfach kein benchmarktitel.

wie wärs mit strange brigade? vulkan+ dx12 - oder forza horizon? erster exklusiver dx12 titel. nein, man nimmt ein buggy UE4 titel aus 2017 und eine nvidia techdemo. dafür hab ich kein verständnis.

und generell zur UE4:

https://www.computerbase.de/artikel...end.62822/seite-2#diagramm-fortnite-2560-1440

sogar von Epic Games selbst. die performance auf radeonkarten in dem titel für die optik ist einfach lächerlich.

und dazu kann man lesen:

"Epic developed Unreal Engine 4 on NVIDIA hardware, and it looks and runs best on GeForce."
Tim Sweeney, founder, CEO and technical director of Epic Games.
https://developer.nvidia.com/unrealengine

man sieht, dass es "best on GeForce" ist - ist halt meiner meinung nach ne ziemliche schweinerei von Epic - ich weiß ja nicht, was andere für ne meinung dazu haben, aber ich finde: wenn man die am meisten lizensierte engine entwickelt, sollte auch fair auf beide gpu hersteller optimiert werden - und das ist eben offensichtlich nicht der fall. hier lässt sich epic ganz schön von nvidia schmieren. oder glaubst du ernsthaft, amd würde nicht gerne eine bessere performance im meist gespielt spiel aller zeiten haben und es hängt nur an der inkompetenz vom amd treiber team? :rolleyes:

wenn du glaubst, dass das zufall ist, kannst ja mal hier die liste durchgehen:

https://en.wikipedia.org/wiki/List_of_Unreal_Engine_games

und UE4 spiele suchen, die auf amd karten gut laufen, d.h. rx 580 > 1060, v56 > 1070 und v64 > 1080. ich hab die liste stichprobenweise durchgearbeitet und so viel sei gesagt: mehr als einen finger zum abzählen brauchst du wohl eher nicht - und den einen finger brauchst du für gears of war 4.

dem ganzen alten krempel steht dann sowas entgegen:

http://www.pcgameshardware.de/Forza...za-Horizon-4-Technik-Test-Benchmarks-1265758/

dann kann man behaupten, dass vega 64 auf 1080 FE niveau gut bedient sei und alles andere nur cherrypicks wären, oder man fängt mal an fragen zu stellen, wo die performance in den betreffenden titeln herkommt. offenbar schüttet da nämlich keiner vorm benchmark bissl elfenstaub ins gehäuse, damit v64 +30% performance bekommt. also muss vega auch irgendwie im stande sein eine 1080 ti ähnliche leistung abzuliefern. und weil man nicht magisch performance dazuzaubern kann, liegt der schluss nahe, dass in den anderen spielen einfach performance fehlt. und die antwort ist meistens: optimierung, gameworks, unreal engine 4.

playthestation schrieb:
Bist du nicht der Typ der in anderen Threads pausenlos behauptet AMD sei am Ende und bei GPUs hätten die nie wieder eine Chance?
Komisch... jedenfalls lässt dich das total unglaubwürdig erscheinen.

wieso unglaubwürdig? weil ich sagte, dass high performance radeon gaming gpus im aktuellen trend der lage eine aussterbende art seien und navi, meiner meinung nach, komplett überhyped wird, darf ich mir keine radeon gpu mehr kaufen?

nvidia bietet amd derzeit mit turing eine irgendwie ziemlich kuriose schwachstelle. das liegt aber nicht an amd, sondern das bein hat sich nvidia selber gestellt. nvidia könnte auch einfach die preise senken, freesync zulassen oder karten ohne raytracing bringen. gegen eine Gtx 2080/2070 mit freesync support für 550€/420€ geht vega einfach nur chancenlos unter. nvidia machts halt nicht - das liegt aber nicht daran, dass sies nicht könnten.

dank turing ist vega sogar ein extrem guter kauf zum aktuellen kurs - ist schon eine kuriose situation. bei vega vs. pascal wurde häufig pascal gekauft - gegen die neue generation von nvidia ist vega auf einmal der preis/leistungs hammer und die empfehlung in ihrem preisbereich - ohne, dass sich bei vega großartig etwas getan hat.

navi muss das ruder für amd herumreissen, die müssen aus der kurzen zeit an der sonne marktanteile und mindshare herausholen wie sau. die haben nicht lange zeit einen knaller abzuliefern, weil nvidia selbst ein 7nm süppchen kocht.

der knaller ist mir mit vega 64+15% mit nur 40 CUs in einem 150w tdp korsett aber ne ecke zu bunt. wo solls herkommen? wäre natürlich top, damit wäre das "ende" erstmal abgewendet - ein knallhartes comeback. aber ganz ehrlich? irgendwo ist da ein haken. entweder die performance oder die tdp und ich tippe auf die performance. für mich passen die puzzlestücke der geleakten daten nicht zusammen - mir fehlt die hardwaretechnische rechtfertigung für diese brutale performance. kann sein, das ergibt sich dann aus weiteren leaks zur architektur. aber stand jetzt ist das ding für mich so eher kategorie wintermärchen.
zudem ist navi eine radeon gpu, es ist eine GCN gpu. navi hat genau die selben schwächen wie polaris und vega und navi wird wie vega und polaris in gameworks spielen gegen die unmöglichsten nvidia karten verlieren. so wie fury x gegen die 1060 in shadow warrior 2 verliert, oder vega 64 gegen die gtx 1070 in ghost recon wildlands, so wird auch navi gegen irgendeinen blödsinn in irgendeinem blödsinn untergehen. und hier müsste die presse mal aufklärend einschreiten - das betrifft dann meinen beitrag weiter oben auf dieser seite. wie gut kann navi werden, wenn navi in FFXV, ghost recon wildlands, hellblade, destiny 2 und den ganzen anderen grünen kamellen gegen nvidia antreten muss? und das ist der kernpunkt. nicht die hardware.

navi wird sicher ne gute gpu - aber gut genug? noch keine amd gpu hatte es so schwer wie navi: nie war das ökosystem feindlicher gegenüber radeon karten: extremes ungleichgewicht der marktanteile, große verbreitung von gameworks, man hat die unreal engine übernommen, der unglaubliche einfluss von nvidias mindshare - speziell auch über influencer. siehe die rtx titan, die nvidia hat bei sämtlichen youtubern mal eben anteasern lassen.

nvidia knotet schon eine weile am strick für die branche, und mittlerweile hängt die branche schon am galgen, und der schemel ist angesägt. nvidia ist so kurz davor endgültig den sack zuzumachen. dann ist der pc die nvidia konsole - das ist ziel von nvidia. alle anderen aussperren. physx, gsync, unreal engine, gameworks, rtx - alles die selbe suppe.
und hier ist navi quasi die letzte chance für die ganze branche. falls navi scheitert und nvidia mit 7nm nachlegt ist der deckel drauf. da ändert dann auch intel nichts mehr dran.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sester, TheUngrateful, Ernie75 und 6 andere
duskstalker schrieb:
Wenn mehr herauskommt, super, dann steck ich mir insta eine in den Rechner.

Bist du nicht der Typ der in anderen Threads pausenlos behauptet AMD sei am Ende und bei GPUs hätten die nie wieder eine Chance?
Komisch... jedenfalls lässt dich das total unglaubwürdig erscheinen.
 
rg88 schrieb:
Man muss auch mal realistisch sein. Das HSA-Konzept ist schlicht gescheitert am Markt. Die erhofften Anwendungen, die die GPU-Einheit zur Beschleunigung nutzen, sind nicht entwickelt worden. .

HSA hat nichts mit CPU und GPU allein im Verbund zu tun. In dem Konzept geht es um Lastenverteilung. Am Desktop kann man dir aktuell noch recht geben, aber im HPC bereich oder Smartphone sieht es ganz anders aus. Speziell letzteres kommt neben GPU bereits eine NPU dazu.

Auch Intel hat das erkannt, deshalb arbeitet man so sehr an an einer GPU Technologie und hat bereits viele HSA Konzepte umgesetzt. Intel wird wie AMD ricjtung modulare Chips gehen, die verschiedene IPs kombinieren. Das ist nichts anderes als ein HSA Konzept nur mit anderen Namen.
 
  • Gefällt mir
Reaktionen: yummycandy
Sekorhex schrieb:
... verstehe bis heute nicht wie man auf die namen der GPU kommt^^ wir haben jetzt rx 590 und jetzt rx 3000?^^

Damit nähme man (ähnlich wie bei dem RyZen CPU Board-Chipsätzen gegenüber Intel) nVidia die Butter vom Brot bei nicht informierten Kunden, die dann (oops :D) bei ähnlicher Bezeichnung aber geringerem Preis bei AMD/RTG landen könnten :lol:.

Der Produkt(-bezeichnungs)-Transparenz läuft das zwar entgegen, aber es ist ja nicht so, als ob nVidia damals vor Maxwell nicht auch 'mal die logische (GTX 800er Serie) Produktbezeichnung übersprungen hätte, ergo, mit Logik hat das manchmal nur noch wenig zu tun :p.

Klingt alles zu schön um wahr zu sein und die Erwartungshaltung steigt (bei einigen deswegen weltfremder Weise) ins unermessliche, woran dann wieder AMD von den bekannten nVidia Jüngern miesepetrig herunter gemacht werden dürfte im kommenden Jahr (eine Steilvorlage für diese sozusagen) :rolleyes:.

Mir würde ein AM4 7nm 12-Kerner (mit schickem MSI- oder Gigabyte-Board sowie 32GB DDR4) eigentlich langen, aber je nachdem was der Aufpreis zu 16-Kernen ist, wäre dieses aktuelle Maximum (für mich) auch eine Überlegung wert/reizvoll.

Wenn man nur wüsste mit wie vielen Kernen "XBOX2" und PS5 ausgestattet werden dürften und ob dort schon Zen2 verbaut wird oder noch der aktuelle Vorgänger?

In den kommenden Jahren könnte dann bei Etablierung von immer mehr Kernen die Kernauslastung durch Entwickler massiv zunehmen, was durchaus zu begrüßen wäre, weil es auch kostbare Zeit für immer kleinere Fertigungstechnik und -neuerungen schaffen würde und die Kostenexplosion etwas abfedern könnte.

Die RX3080 hört sich zu gut an, um wahr zu sein und wäre bei dieser Leistung bei dem Verbrauch und Preis gebucht für mich ... schön wär's :).
 
@Chismon

das neue namensschema würde gut passen - ich finde auch, dass amd bei den boards und prozessoren mit diesem namensschema alles richtig macht. so kann man direkt grob einordnen, was der amd gegenpart ist und man muss nicht viel umdenken als intel-umsteiger :king:. das blöde ist, dass man hier auch mal aus versehen das falsche kombinieren kann, aber das macht intel ja schon innerhalb einer cpu generation ganz alleine.

mich würde auch mal interessieren, was über der rx 3080 mit dem navi vollausbau kommt- rx navi? oder rx 3090? rx 3090X? wird ganz schön lang.
 
  • Gefällt mir
Reaktionen: dohderbert
Revan1710 schrieb:
Fun fact am Rande - Su ist die Nichte des Nvidia-CEO (kein Scherz)

"Lisa Su’S grandfather Jensen Huang's mother are brothers and sisters"
"Technically, Lisa Su’s grandfather is Jen-Hsun Huang’s uncle. They are not exactly niece and uncle, but close relatives. "

nicht ganz die Nichte, aber krass, das wusste ich auch nicht.. hmmm
 
  • Gefällt mir
Reaktionen: Revan1710 und Ctrl
Na da bin ich ja gespannt, was da dann wirklich rauskommt.
Mein 2600k wird irgendwann mal den Geist aufgeben, oder in Rente geschickt ... vielleicht schon nächstes Jahr, wenn das Paket bei AMD passt :) .... und das P/L natürlich auch.
Wollte mir eigentlich keinen Gamer PC mehr zusammenbasteln (arbeiten tu ich sowieso am iMac) aber nachdem selbst das momentan als beste CloudGaming am Markt titulierte Shadow (noch) nicht wirklich gut funzt (trotz 100/50er Leitung mit Pings zwischen 15 und 20ms) wird wohl noch 1 Mal in einen ordentlichen Gaming PC investiert :)
Wenn man dann was gutes aus dem roten Lager bekommt ... why not
 
  • Gefällt mir
Reaktionen: dohderbert
dohderbert schrieb:
"Lisa Su’S grandfather Jensen Huang's mother are brothers and sisters"
"Technically, Lisa Su’s grandfather is Jen-Hsun Huang’s uncle. They are not exactly niece and uncle, but close relatives. "

nicht ganz die Nichte, aber krass, das wusste ich auch nicht.. hmmm
Hi

Sicher ein lässiges Weihnachtsessen, beim Family treff
Und wenn Du nochmal mal über meine Karten herziehst... (Pürree wirft... oder Reis) ggg

Gruss Labberlippe
 
  • Gefällt mir
Reaktionen: dohderbert
pipip schrieb:
HSA hat nichts mit CPU und GPU allein im Verbund zu tun. In dem Konzept geht es um Lastenverteilung.
Doch, HSA war der ursprüngliche Gedanke hinter den APUs von AMD. Der Gedanke dahinter war das die GPU durch die enge Integration mit der CPU dieser gut parallelisierbare Berechnungen abnimmt. Das Problem beim GPU Computing mit Grakas ist, dass die Übertragung des Programmcodes und vor allem der Daten sehr lange dauert und es sich daher nur lohnt wenn auf den Daten recht aufwendige und damit viele Berechnungen ausgeführt werden. Die enge Integration von CPU und GPU auf einem Die sollte dieses Problem mindern um auch bei kleinen Berechnungen einen Vorteil zu bringen, aber sogar die SW Unterstützung dafür wurde schon eingestellt, nachdem sie sowieso viel zu spät erschienen ist um jemals eine Bedeutung zu bekommen. Außerdem haben Befehlserweiterungen wie AVX2 und AVX512 der Sache das Wasser abgegraben, denn im Grunde war HSA auch nichts großartig anderes.

Die Idee war, dass die IPC und der Takt der CPUs nur noch schwer gesteigert werden können und man daher die Verarbeitung möglichst viele parallel ausführbaren Aufgaben auch an Hardware auslagern sollte, die dies auch wirklich parallel kann und dies eben auch bei Aufgaben bei denen es sich sonst nicht lohnt die Daten erst über PCIe übertagen zu müssen. Kann man bedauern, denn im Vergleich zu dem was eine iGPU an Daten parallel verarbeiten kann, ist selbst AVX512 schmalbrüstig. Aber im Vergleich zu den Taktraten die eine Intel CPU (AMD hat ja noch kein AVX512) selbst bei intensiver AVX512 Last hat, taktet jede iGPU auch extrem gering.
 
  • Gefällt mir
Reaktionen: JNS-K
duskstalker schrieb:
... neue namensschema würde gut passen - ich finde auch, dass amd bei den boards und prozessoren mit diesem namensschema alles richtig macht. so kann man direkt grob einordnen, was der amd gegenpart ist und man muss nicht viel umdenken als intel-umsteiger :king:. das blöde ist, dass man hier auch mal aus versehen das falsche kombinieren kann ... mich würde auch mal interessieren, was über der rx 3080 mit dem navi vollausbau kommt- rx navi? oder rx 3090? rx 3090X? wird ganz schön lang.

Ja, grossartig verwundern wuerde mich eine Aenderung bei den AMD/RTG GPU-Produktbezeichnungen auch nicht, die Zaesur (mit dem Ende GCNs)/der Neuanfang (bei den GPUs dann analog zu RyZen vorher bei den CPUs) waere eigentlich nur konsequent.

Also dasss man auf "90er" und "90erX" fuer die Oberklasse wie in alten/ehrwuerdigen Tagen zurueck greift, glaube ich eher nicht, denn die vor kurzem veroeffentlichte RX 590 ist da ja ein Fingerzeig, dass die "90er" Kennung die letzte Refresh Iteration (aehnlich damals der R9 380X) von der "80er" Architektur sein wird.

Also entweder lassen die sich wieder neue Namen/Bezeichnungen einfallen oder plausibel waeren RX Navi56 und RX Navi64, selbst RX Fury oder RX Rage waere vorstellbar, dauern wird eine moegliche Oberklasse (oberhalb dieser gemunkelten RX 3080) mit an Sicherheit grenzender Wahrscheinlichkeit nicht vor 2020 (ich lasse mich aber auch gerne da vom Gegenteil ueberraschen, wenn wir schon bei so einem "Wunschkonzert" sind :D ) und so lange wuerde ich zumindest nicht warten wollen.

Spaeter koennte man immer noch umsatteln, denn wenn die Navi Mittelklasse gut werden sollte, dann wird man die Karte zur Veroeffentlichung einer moeglichen Navi Oberklasse auch wieder gut loswerden (an Krypto-Mining denke ich dabei nicht unbedingt) und zugleich wuerdigt man damit auch AMDs/RTGs Bemuehungen/Fortschritte doppelt ;), wenn diese denn so eintreffen sollten.

Die Frage ist auch, ob die Mittelklasse-GPUs (etwa in Form einer gemunkelten RX 3080) nicht stark genug sein werden, um dann alles unterhalb von fluessigem 4K/UHD-Gaming zu stemmen (?), da sowieso bei den horrenden Monitor- und GPU-Preisen in den Ober- und Enthusiastenklasse-Leistungsbereichen dann (in 2019/2020) mehr (also 4K/UHD) immer noch fuer die meisten nicht lohnend oder zumindest fragwuerdig lohnend sein wird, es sei denn mit dann moeglicher Weise schon erscheinenden, konkurrenzfaehigen Intel dGPUs wuerden die Preise maechtig purzeln (paradiesische Zustaende also fuer die Kundschaft), aber das waere wohl zu verheissungsvoll/maerchenhaft gedacht.

Deutlich spannender als in 2018 duerfte es aber allemal werden in 2019 (und ggfs 2020), was GPUs und CPUs angeht ... bei einer so gemunkelten RX 3080 (die ja fuer extrem unrealistisch seitens CB gehalten wird), wenn sie denn wirklich so kaeme, wuerde nVidia in der Mittelklasse wohl nicht um einen 7nm Turing Refresh herumkommen, denn mit einer popeligen 12nm Turing Mittelklasse (RTX/GTX-)Version gewaenne man ausser bei HardCore nVidianern damit wohl auch keinen Blumenstrauss mehr.
 
Zuletzt bearbeitet:
Bei den bisher geleakten Informationen zu den ES von ZEN2 werden die Eckdaten der CPU`s schon recht nahe an das reale Produkt heranreichen. Darüber hinaus ist AMD`s Ansatz ja auch für gute Yields ab Anfang ausgelegt, mit relativ kleinen Dies die zusammengeschaltet werden. Ich halte das in der Tat für sehr realistisch im Bezug auf die CPU`s.
Und wenn die deutliche Taktsteigerung auch bei den GPU`s möglich ist, die ja auch wiederum eher kleinere Chips werden, weil High End erst mal auf Eis liegt, dann könnte hier auch mehr Wahrheit dran sein als Wunschträume. Obwohl ich da etwas skeptischer bin. Aber schließen wir einfach mal nicht aus, dass AMD ihren eigenen Ansatz vom TBR etc. doch zum laufen bekommen hat mit den neuen GPU`s und dadurch auch einen Leistungssprung hinlegen wird.

Die Forenskeptiker erinnern doch sehr an die Zweifler vor dem Ryzen 1 Start. "AMD wird niemal einen 8-Kerner so günstig anbieten" und so weiter. Wir wissen alle was am Ende daraus geworden ist.

Zu CB selber muss ich auch noch was loswerden. Also nach dem ganzen Bullshit der hier teilweise ungefiltert zu Konkurrenzprodukten rausgehauen wird, dem Umgang mit dem CPU Test und dem Schweigen im Walde für 14 Tage und so weiter, macht man sich jetzt Gedanken, ob man eine solche Meldung Publizieren möchte?! Nachdem Seiten wie PCGH, Gamestar, Golem, THW etc. diese schon Online gestellt haben als seriöse Newsseiten? Das Ganze noch mit dem Tenor am Ende, der wirkt wie eine von Intel und Nvidia verfasstes Fazit zu den Meldungen...... Keine Nennung, dass Kyle Bennet das bestätigt hat in fast allen Punkten? Hat das Forum selber vorher herausgefunden....
Tut mir wirklich leid, aber eure Glaubwürdigkeit sinkt bei mir persönlich von Tag zu Tag. Man kann nur heilfroh sein, dass Igor bei THW Deutschland die Zügel übernommen hat.
 
  • Gefällt mir
Reaktionen: dersuperpro1337, DonL_, Mordeos und eine weitere Person
RYZ3N schrieb:
Das ganze Gerede von Zukunftssicherheit & Co. kann ich langsam nicht mehr hören, immer das selbe, Generation für Generation.

.... i7-920....

Der (im Nachhinein betrachtet) vielleicht zukunftssicherste Prozessor der je für den Desktop released wurde. 8 Threads vor über 10 Jahren! Bei ein bisschen OC auf 3-3,3GHz selbst heute noch okay - in jedem Fall für Leute die nicht alles auf max haben müssen.

Beim Upgrade auf Kaby Lake 2016 habe ich das nicht annähernd so stark gespürt wie ich das gerne gehabt hätte.
 
  • Gefällt mir
Reaktionen: Blumenwiese und SVΞN
Zurück
Oben