News Ryzen 3000 & Radeon RX 3000: Fantastische Gerüchte zu AMDs CPU- und GPU-Zukunft

frost21 schrieb:
Daher würde ich behaupten sind die Kosten eines Wafers für jede Foundry gleich
Nein, die nutzen glaube ich unterschiedliche. Die neuen CPUs von Intel sind einiges dicker, ich bezweifle dass sie die selbst schleifen. Die werden fertig eingekauft, wie du schon richtig sagst. Warum also nicht gleich passend?

Und bei den ging es um den Preis der fertigen Wafer, die AMD kauft. 7nm ist teurer, als 14nm. Das hätte da schon bei stehen sollen.
 
  • Gefällt mir
Reaktionen: frost21
Stanzlinger schrieb:
Der Intel Bug betraf im Normalfall aber nicht den normalen Endanwender - ein instabiles System jedoch schon
Darüber lässt sich streiten. Auch normale Endanwender waren betroffen, sofern entsprechende Software eingesetzt wurde, auch wenn diese nicht sehr verbreitet war.
Dennoch sah sich Intel irgendwann genötigt ein umfangreiches Umtauschprogramm zu initiieren.

Ansonsten assoziierst du weiterhin instabile VIA/ALi Chipsätze und/oder schlechte BIOS mit AMD.
Nochmal: die CPU war nicht das Problem, sondern die Produkte von VIA bzw ALi.

Im Gegensatz zu den fehlerhaften P67, H67, Q67, HM67 und HM65 von Intel.
 
  • Gefällt mir
Reaktionen: Gortha
Stanzlinger schrieb:
Weil Intel rauf steht und pro MHz bietet Intel mehr Leistung. Ich werde immer Intel kaufen - mit AMD verbinde ich mangelnde Stabilität seit dem K6-2 Desaster


Und ich verbinde mit AMD den Athlon64, dem Intel das Wasser nicht reichen konnte.
 
  • Gefällt mir
Reaktionen: eXe777, Acedia23, Gorgone und 4 andere
Taxxor schrieb:
Ja und wenn er sagt, dass das meiste davon stimmt dann sind nicht 80-90% Dichtung und Wunschdenken sondern 10-20%

ich erkläre die mal die definition von "meisten"... meisten = mehrheit = mehr als 50%, also min. 50.1%, und da er gesagt hat "nur wenig stimmt nicht", heisst es, es ist deutlich mehr, als nur 50.1%... "wenig" von einer summe/masse = max. 20% = 80% endergebnis
 
Mhh es gibt immer noch kein Dementi zu den Gerüchten von Seiten AMD. Bei solch schwergewichtigen Gerüchten gibts es die dann doch schon mal ...
 
Zero_Point schrieb:
Und was ist, wenn es doppelt so viel schluckt, weil auch die Konkurrenz etwas Neues hat? Immer noch Wumpe?

Wenn es die Hälfte kostet? Immer noch Wumpe.
Nur weil wir in Abzockistan leben, zumindest was Strompreise betrifft, gilt das nicht in anderen Regionen.
 
  • Gefällt mir
Reaktionen: Gortha
XTR³M³ schrieb:
Richtig, 80% sind kein Wunschdenken und 20% Wunschdenken. Das sagt @Taxxor doch.

Guck nochmal auf die anfängliche Formulierung und warum das dann statt 80% 20% sein sollten.
 
  • Gefällt mir
Reaktionen: Colindo
usb2_2 schrieb:
Richtig, 80% sind kein Wunschdenken und 20% Wunschdenken. Das sagt @Taxxor doch.

Guck nochmal auf die anfängliche Formulierung und warum das dann statt 80% 20% sein sollten.


ahhhh, ich habs dann komplett verdreht gelesen... mein fehler X-D
 
  • Gefällt mir
Reaktionen: Colindo
Zero_Point schrieb:
Dann träum mal fleißig weiter von deiner Hälfte.
So sehr träumt @psYcho-edgE da gar nicht. Der R7 2700x kostet wie viele % des 9900k? Und die Produktionskosten sind auch unterschiedlich. Ich würde aber eher sagen, dass Intel 1/3 mehr verlangt. Viel mehr können auch die sich nicht erlauben.
 
  • Gefällt mir
Reaktionen: psYcho-edgE
Witzig wie das Thema viel stärker frequentiert wird als so manches andere Thema mit bedeutenden Techniken.
 
@CB Bitte berichtet weiterhin solche News! Ich finde das sehr interessant und es kann sich ja jeder selbst seine Meinung bilden.

Sollten sich die Gerüchte auch nur zu 75% bewahrheiten, werde ich nun mein doch schon etwas in die Jahre gekommenes System mal wieder upgraden. War jetzt lange am munkeln ob ich mir einen i9 9900k oder einen Ryzen 7 2700x hole. Wenn ich es bis jetzt mit meinem System ausgehalten habe, schaffe ich das auch noch ein paar weitere Monate und schaue ob ne Bombe platzt :D

Ich würde es AMD auf jeden Fall gönnen.
 
  • Gefällt mir
Reaktionen: swael und dohderbert
usb2_2 schrieb:
Nein, die nutzen glaube ich unterschiedliche. Die neuen CPUs von Intel sind einiges dicker, ich bezweifle dass sie die selbst schleifen. Die werden fertig eingekauft, wie du schon richtig sagst. Warum also nicht gleich passend?

Da ist halt die Frage was günstiger ist. Sind es die dickeren Wafer die viel Material verschwenden dafür warscheinlich einfacher zu fertigen. Oder sind es die dünneren Wafer, von denen eine größere Stückzahl aus einem Ingot herausgetrennt werden können, dafür die Herstellung wahrscheinlich komplexer ist.

Ich würde sogar fast behaupten, dass der dünnere Wafer, den AMD verwendet, günstiger (und gleichzeitig auch vorteilhafter im Bezug auf Wärmeübertragung) ist als als der "dickere" Intel-Wafer. Alleine weil man sich viel höherwertiges Silizium dabei spart.
 
usb2_2 schrieb:
So sehr träumt @psYcho-edgE da gar nicht. Der R7 2700x kostet wie viele % des 9900k? Und die Produktionskosten sind auch unterschiedlich. Ich würde aber eher sagen, dass Intel 1/3 mehr verlangt. Viel mehr können auch die sich nicht erlauben.
Die Preise sind bei Intel aktuell allerdings alles andere als normal und teils über UVP. Ich denke diese besondere Situation sollte man nicht als Maßstab nehmen.
Im Gegenzug ist der 9900k immerhin rund 25% schneller als der 2700X. Und für die letzten Prozent hast du schon immer überproportional mehr gezahlt.
 
Zero_Point schrieb:
Dann träum mal fleißig weiter von deiner Hälfte.

Ich hab doch eindeutig in diesem Thread erwähnt, dass ich selbst nicht dran glaube.

Wenn aber so ein Produkt käme, wäre der Kundschaft der Stromverbrauch Hupe, wenn die Karte nur günstig genug ist.

Was ist eigentlich jetzt das Problem? :rolleyes: :p
 
  • Gefällt mir
Reaktionen: usb2_2
@frost21

Mag sein, ich habe keine Ahnung, was billiger ist. Intel wird aber einen Grund haben von dem ganz dünnen weg zu den ziemlich dicken gewechselt zu haben.

AMD wird da wohl auch das kaufen, was sie für die beste Wahl halten. Vorausgesetzt, dass sie das denn von glofo und TSMC bekommen.

@Zero_Point

16% in Cinebench. Der 2700x kostet etwa 53% des i9 9900k. Das ist mehr, als bei highend GPUs, wenn man die Titan ausnimmt. Sonst müssen wir doch noch den Threadripper mit dem anderen i9 vergleichen, wenn die Titan zählt. Die über nicht für gaming gedacht. Der i9 9900k wird aber damit beworben und der R7 ist Intels ersuchte Konkurrenz.
 
  • Gefällt mir
Reaktionen: psYcho-edgE
pipip schrieb:
Ja, falls Navi ein Vega Shrinke ist. Und davon ist nicht auszugehen. Er hat vermutlich mehr mit Polaris gemeinsam als mit Vega, da er GDDR6 verwenden wird.
Schwachsinn. Navi wird deutlich näher mit Vega verwand sein. Warum sollte man Navi auch auf eine geringere GCN Ausbaustufe aufbauen? Dazu soll Navi ja einige Vega Features bekommen (Rapid Packes Math, Primitive Sahders etc). Und Vega ist nicht auf HBM angewiesen. Zeigen doch die ganzen APUs, wo eine Vega GPU mit einem normalen Speichercontroller Kombiniert wird. Du kannst ebenso gut für einen dedizierten Vega Chip ein GDDR6 Speicherinterface bauen. Ähnlich wie bei Tonga und Fiji. Tonga und Fiji sind auch extrem verwandte GPUs. Tonga hatte einen GDDR5 Speichercontroller und Fiji (im Grunde ein doppelte Tonga) wurde auf einen Interposer mit HBM Speichercontroller gesetzt.

pipip schrieb:
Allein schnellerer Speicher würde Polaris einiges an Mehrperformance bringen.

Kommt drauf an, nicht alle Anwendungen sind Speicherlimitiert.

pipip schrieb:
Desweiteren ist Vega, wenn es um Compute geht, deutlich schneller, er kann also die Rohleistung auch auf den Tisch bringen, wenn die Anwendung passt. Nur in Games passt es mit der Auslastung nicht mehr.

Stimmt so nicht. Die Rohleistung ist ein theoretischer Wert. Welche Performance am ende rauskommt hängt von vielen Faktoren ab! Architektur, Auslastung, Features etc.

pipip schrieb:
Nur in Games passt es mit der Auslastung nicht mehr. Polaris ist aktuell ziemlich im Sweetpoint, sprich die Auslastung von Navi ist höher, als jene von Vega64, welche du als Beispiel nimmst.

Ich habe Sie nicht als Beispiel genommen, sonder das Gerücht hat gesagt, Vega 64 plus 15%
pipip schrieb:
Es wurde dir bereits gesagt, dass Vega56 taktnomiert (GPU und HBM) mit Vega64 ca gleich schnell ist. Somit wäre ein Vergleich 1080 und Vega56 bereits sinnvoller.
Und ich habe gesagt, dass das nicht in allen Fällen zutreffend ist... Und warum soll ich mit Vega 5 vergleichen, wenn im Gerücht 64 gesagt wird, davon ab, dass man dann eine OC Karte mit einer Standardkarte vergleicht. Und Vega 64 lässt sich deutlich weiter takten, als die 56.

pipip schrieb:
Will man aber einen sinnvollen Vergleich, dann nimm Polaris30, welcher Navi ersetzen soll, übertaktet den Speicher, GPU takt und bedenke die paar CUs mehr.

Du willst einen Sinnvollen Vergleich, gerne.

Nehm die RX 590, die hat 2304 Shader und taktet mit etwa 1550mhz. Macht 7,142 Tflops. Nehmen wir dagegen eine 1070. 1920 Shader, ~1800mhz im Boost, dass macht 6.912 Tflops. Die 1070 ist laut letzter Computerbase Grafikkartenrangliste 25% schneller. Ups... Auch das von dir bezeichnete Optimum zeigt, dass GCN pro Tflop Rohleistung weniger FPS in Spielen bringt. Prozentual nimmt sich das zu meinem Vega vergleich gar nicht mal so viel.



Du siehst, ob Vega oder Polaris. Es ist egal. Bei GCN benötigst du mehr Rohleistung für die gleiche Gamingleistung (Das war auch schon bei GCN1 der Fall). Um also auf die Leistungsangabe "Navi erreicht Vega 64 Leistung plus 15%) zu kommen, muss Navi also entweder das Verhältnis von Tflops zu FPS auf ein ähnliches Niveau wie Nvidia bringen, extrem hoch takten, oder extrem viele Shader haben.

Das ganze hat nichts mit der Auslastung oder sonst was zu tun, es ist der Unterschied in der Architektur zwischen GCN, Pascal und Turing.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: swael, SVΞN und Sun-Berg
Taxxor schrieb:
XTR³M³ schrieb:
du weisst schon, wer kyle bennet ist, oder? :freak: und der sagt sicherlich nix, wo der sich selber mit in die nesseln setzen würde :daumen:
Ja und wenn er sagt, dass das meiste davon stimmt dann sind nicht 80-90% Dichtung und Wunschdenken sondern 10-20%
Kyle Bennett ist der, der z.B. die Intel-CPU mit AMD-GPU (Kaby Lake-G) vorhergesagt hat.
 
  • Gefällt mir
Reaktionen: dohderbert
Chismon schrieb:
Die Frostbite Engine galt ja seit Star Wars Battlefront 1 und bis zu Battlefield V als das grafische Nonplusultra...

Also bei mir persönlich überhaupt nicht. Die Photogrammetrie, die bei SWBF verwendet wurde, hat zwar -erst mal engineaunabhängig- durchaus eindrucksvolle Ergebnisse (Grafik wie im Film) erbracht, aber die Frostbite-Engine finde ich persönlich relativ schauderhaft, da alles irgendwie diesen glossy/shiny Plastik-Look hat.
Vor allem Steine/Felsen sehen extrem unnatürlich aus, aber auch jede Form von Vegetation.

Dazu kommt so ein komischer Effekt, als ob man die Welt immer durch eine Kamera mit zahlreichen Filtern betrachten würde.

Man ist irgendwie nicht wirklich "da" in dieser Welt "drin", sondern eher die beobachtende Kamera. Es ist schwer auszudrücken, aber ich persönlich finde Frostbite auf ganzer Linie zu künstlich.

Da gefällt mir zum Beispiel die Grafik in Far Cry 5 + HD Texturen (Dunia) wesentlich besser, vor allem auch die Wasserdarstellung... das ist der Hammer und mMn deutlich näher am *momentanen* Nonplusultra.

Es gab meines Wissens auch schon Spiele vom gleichen Entwickler, die erst vergleichsweise etwas besser auf AMD GPUs gelaufen sind und in der nachfolgenden, von nVidia gesponsorten Iteration trotz im Prinzip gleicher Engine auf einmal besser mit den Grafikkarten des Marktfuehrers gelaufen sind.

So was könnte man durch mehrere auf einer Engine basierende Titel abfangen oder die klar für einen Hersteller optimierten Titel natürlich gar nicht erst zulassen.
Meine Liste war auch nicht abschließend gemeint, sondern beispielhaft. Ich denke (mindestens) zwei Titel pro Engine/API sollten es natürlich, wenn und soweit möglich, immer sein.

So gesehen sind die Engines an sich sicherlich ein interessanter Faktor/Anhaltspunkt, aber wohl leider doch nicht unbedingt ausschlaggebend, die Lumberyard Engine (Star Citizen) hielte ich uebrigens (als moeglichen Goldstandard) auch fuer ein Muss genauso wie die ForzaTech Engine (Forza Horizon 4).

Ich denke die Engines sollten schon in deutlich mehr als einem Titel zum Einsatz kommen oder gekommen sein. Lumberyard ist doch abseits vom nicht optimierten Dauer-Early-Alpha-Kandidaten SC völlig uninteressant, genauso wie eine Engine, die nur für eine Rennspielserie zum Tragen kommt, die noch dazu auf Xbox, Xbox und nochmals Xbox optimiert ist ;) .

Zugegeben könnte man dann auch meinen RAGE-Vorschlag in Frage stellen, da die Engine nur in GTA V und ggf. in einer PC-Version von RDR2 zum Einsatz kommt, aber GTA V hat Kopien in mittel bis hohem zweistelligen Millionen-Bereich auf PC verkauft. Das wäre also ein Popularitätskandidat.

Des Weiteren waeren noch die LithTech Engine von Monolith (Shadow of Mordor) sowie eine moeglicherweise neue Total War Engine (fuer Total War Spielreihe) sicherlich nicht verkehrt, womit man WB und Sega als Publisher auch im Boot haette ... es gibt wohl doch noch eine ganze Menge von (ungenannten) Haus-Engines groesserer Publisher.

Naja, LithTech hat es ziemlich hinter sich. Die stark modifizierte LithTech Engine von SoM heißt streng genommen Jupiter EX und die neuere Version, die bei SoW zum Einsatz kommt nennt sich Firebird.
SoM ist von 2014 und auch das letzte Spiel, das auf dieser JupiterEX-Version der Engine veröffentlicht wurde, also ich denke das ist dann wirklich nicht mehr so zeitgemäß, weil da nix mehr groß nachkommt.
So im Dreh 2002 - 2014 (vor allem 2005 - 2010) wäre LithTech Pflichtkandidat gewesen, aber die Engine hat ihre besten Tage nun schon etwas länger hinter sich...
 
Shoryuken94 schrieb:
Ups... Auch das von dir bezeichnete Optimum zeigt, dass GCN pro Tflop Rohleistung weniger FPS in Spielen bringt
Ja, die Architektur hat da einige Probleme. Nvidia hatte die ja auch Mal und Kepler bräuchte ja auch viel Optimierung und mit Ende dieser würden sie viel langsamer bzw nicht mehr so schnell, wie sie hätten sein können.

Der Aufbau ist aber auch grundsätzlich anders und eben auch leicht für compute zu optimieren. Irgendwo gab es Mal ein Interview mit dem technischen Marketing, wo das erklärt wurde. Es hat halt alles seine Vor- und Nachteile.

Navi soll ja auch etwas anders aufgebaut sein. Die IPC bei GCN hat sich übrigens mit jeder Generation verbessert, während Maxwell und Pascal annähernd gleich waren.

Die vergleichen wären jetzt natürlich interessant mit den neuen Generationen.

Wobei Vega ja nicht wirklich gegenüber der Fury zulegty während Polaris und die Tonga GPUs schon Unterschiede in der Leistung hatten. Kann natürlich sein, dass ich mich irre aber ich glaube, dass die Polaris eine deutlichere Steigerung zu GCN 1.3 hatten.

Falls es jemand weiß bitte immer her mit den genauen Werten.

Sollte ich sie doch finden editiere ich den Beitrag nochmal.
 
Zurück
Oben