News AMD Fiji: Weitere Details zur Radeon R9 Fury X, Fury und Nano

kisser schrieb:
Ja genau. Was glaubst du denn, warum AMD auf HBM wechslen musste? Die GCN-Architektur ist am Ende, weil sie viel zu ineffizient ist und von ihrer theoretischen Rohleistung nicht genug in der Praxis ankommt.
:lol: : Gut das du eben zugibst das nvidias Pascal Architektur dann wohl auch ineffizient und am Ende ist... Bevor sie erscheint :lol:
Achja... Mit Pascal will ja nvidia auch auf mixed procesion units wechseln... Wie GCN schon seit Jahren kann. Witzig das nvidia auf sowas ineffizientes setzt.

Eine 290x/390x hat schon ein 512Bit Speicher-Interface, noch breiter konnte man das nicht machen. Jetzt vergleiche mal eine 290x von den theoretischen Leistungsdaten her mal mit einem GM200. Die sind sich da sehr ähnlich, aber in der Praxis ist der Maxwell deutlich schneller.
:lol: Bei der 290/390X ist das SI zwar 512Bit groß, dafür ist der Speicher bei nvidia entsprechend getaktet. Es sind lediglich 2 Herangehensweisen...

Also hat AMD, um da mitzuhalten, einfach weitere Rechenwerke angeflanscht und musste zwangsweise auf HBM wechseln.
Also hat nvidia, um effizienter zu werden einfach weitere Rechenwerke (DP Einheiten) weg gelassen, weil sie noch keinen Zugriff auf eine fortschrittliche und effiziente Speicher Technologie wie HBM hatten, weil ihre eigene Kooperation mit Micron und der Erforschung von HMC (womit Pascal ursprünglich erscheinen sollte) offenbar nicht fruchtete...
 
und weils zum jetzigen Zeitpunkt auch einfach fast kein Sinn ergibt HBM einzusetzen da mega unflexibel und vermutlich erheblich teurer (nicht zuletzt wegen dem komplexen Interposer und der neuen Fertigung).
 
Zuletzt bearbeitet:
Krautmaster, es ist aber so oder so ein bisschen derbe, einem Konzern vorzuwerfen, sie würden etwas Neues zu früh einführen, auch wenn man nicht behaupten kann, daß Neuerungen grundsätzlich immer gut und erfolgreich sind.

Man kann nicht einerseits über stagnierende Leistungssteigerungen meckern und andererseits die Einführung von neuen innovativen Ideen und Techniken kritisieren. :freak:

Ich meine, ehrlich, bei AMDs finanzieller Lage wäre es vielleicht am besten, wenn sie gar keine eigenen Wege mehr gehen würden, sondern in Sachen CPUs einfach Intel kopieren und in Sachen GPUs einfach nvidia kopieren. Na was meinste, was dann los wäre, wie häufig man dann solche Sprüche hier lesen würde: "Wäääh, die kopieren nur alles, schlimmer als die Chinesen...." :freak:

Alles schönzureden ist sicher nicht der beste Weg. Alles schlechtzureden aber auch nicht. ;)
 
Allein dieses Vorschaubild des Videos... :freak: Ich verzichte mal aufs Anschauen und warte lieber noch bis zum 24.06. Bis dahin dürfen wir uns sicher noch weiterer diverser angeblich geheimnisausplaudernder Videos mit solchen Vögeln erfreuen, die aussehen als wären sie zugedröhnt...


Zur HDMI-2-Geschichte noch ein Gedanke:
Die Fury und andere Grafikkarten von 2015 werden zu wenig Leistung haben, um Spiele in 4K und 60 Hz spielen zu können, wo HDMI 2.0 nötig wäre, und
wenn es nur ums Filmegucken geht, würde ich kein Fury-Leistungsmonster, wenn sie denn HDMI 2.0 könnte, nehmen, weil sie dazu zu "overpowered" wäre.

Hier wird wieder eine eierlegende Wollmilchsau ersehnt, die einfach nicht existieren kann, weder bei AMD noch bei nvidia.

Filmegucken möchte man ja auch extrem leise und sparsam betreiben. Überlegt mal, wie viel Zeit zwischen den ersten Full-HD-Filmen bis zum Entwickeln von kleinen sparsamen Geräten wie Raspberry PI vergangen ist, die nun diese Full-HD-Filme darstellen können zu einem winzigen Verbrauch.

4K-Filme in 60Hz möchte ich ebenso auf einem winzigen, sparsamen Gerät betreiben. Aber da weiß ich genau, daß das 2015 doch ziemlich unrealistisch ist.
 
Zuletzt bearbeitet:
49 4k Monitore
Wobei die meisten noch unter 30 Zoll haben. Ab 30 Zoll wirds richtig teuer. Ausnahme der Philips mit 39 Zoll.
231 UHD-TVs mit Hdmi 2.0
Und die kleinsten sind 40 Zoll. Und hier sind nur die Modelle die Hdmi 2.0 und somit 60Hz unterstützen.
7 UHD-TVs mit DP
Hier gibt es nur einen Hersteller und die Preise sind, im Vergleich zu den Hdmi 2.0 Modellen, jenseits von Gut und Böse.

Wenn AMD der Meinung ist, dass 4k im TV Bereich keine Rolle spielt, hat die letzten Jahre verpennt. In Wirklichkeit ist es genau anders rum.

Zitat:
"Laut AMD seien vor allem Fernseher mit HDMI-2.0-Eingang nicht sonderlich weit verbreitet und daher sehe man noch keinen Bedarf, einen entsprechenden Anschluss anzubieten."
Quelle

Ich selber habe seid gestern einen 49er TCL UHD-TV in Betrieb und ich bin einfach nur Hin und Weg. Der TCL hat auch einen Game-Modus und aktiviere ich den, ist der Inputlag in Spielen kaum mehr Wahrnehmbar. Dazu kommt: Keine Tearing! Das bei 30 Hz, ich habe leider noch keine Graka mit Hdmi 2.0.

Wenn ich mal bedenke wie klein die Symbole auf dem Desktop bei meinem 49er sind trotz Max. Größe, wie das auf einem 28er Monitor sein Muss? Bedenke ich nun, das es 4k Monitore z.Z. nur bis 40 Zoll gibt und dann noch viel teurer, hat es AMD alleine damit schon wieder vergeigt.

Auch wenn die Fury stärker und billiger als Nvidia Karten sein würden, wird das 4k Erlebniss entweder durch zu kleine 4k Monitore oder durch zu Teure eingeschränkt.

Ich bin mir auch zeimlich sicher, dass es in Zukunft immer mehr Gamer geben wird die auf UHD-TVs zocken.
 
Zuletzt bearbeitet:
PiPaPa schrieb:
Was soll an einem Interposer, der schlicht Leitungen zur Verfügung stellt, komplex sein?

Da AMD da jahrelang dran rumentwickelt hat, ist es wohl nicht nur einfach ein Stückchen Plastik mit drei dran gepappten Kupferdrähten.
 
bluntman schrieb:
Er meint die komplexe Nutzung der Interposer, wie es bei Hardwareluxx beschrieben wurde.... ^^
Naja, das dieser Interposer nicht nur einfach eine Lochrasterplatine ist ja klar. Es ist vor allem ein Problem des Fertigers.

Mit der selben Logik kann man sagen das AMD/nvidia doch bitte keinen 14/16nm Fertigungsprozess nutzen sollten, weil dieser komplexer ist als das 28nm Verfahren.

Edit: Ja, SK Hynix und AMD haben 5 Jahre gebraucht, und davon gingen bestimmt 4,5 Jahre allein nur für den Interposer drauf. sorry :freak:
 
Zuletzt bearbeitet:
Schaby schrieb:
Wenn AMD der Meinung ist, dass 4k im TV Bereich keine Rolle spielt, hat die letzten Jahre verpennt. In Wirklichkeit ist es genau anders rum.

Wer sagt, dass das AMDs Meinung ist? Ich sage jetzt einfach mal, dass zocken auf 4K Fernsehern im Enthusiastenbereich, in den diese Karten gehören, eine sehr untergeordnete Rolle spielt. Und wenn Du nun dich als Gegenbeispiel bringst, dann bring ich mich wiederum als Gegenbeispiel. :D
Ich habe wirklich noch nie einen Gedanken an einen HDMI 2.0 verschwendet. Wenns nach mir ginge, hätte eine Fury 4x DP und gar keinen HDMI. Oder besser noch 6x miniDP.

Außerdem 4K / die letzten Jahre. Ist klar. War schon 2002 als ich bim Bund raus bin in aller Munde.
Für die nächste Generation mit Pascal und was AMD da bringen mag ist das interessant, weil dann auch die nötige Leistung verfügbar sein wird.

HDMI halte ich für die der Unterhaltungsindustrie entwchsene Krätze. Man muss Lizenzgebühren bezahlen, der Anschluss hängt dem DP technisch hinterher und er besitzt nicht mal eine Arretierung.
Wenn ich einen TV hätte würd ich sogar die extra Kohle für Panasonic ausgeben, damit ich nen DP habe.
 
Zuletzt bearbeitet:
hrafnagaldr schrieb:
Wer sagt, dass das AMDs Meinung ist?

Ich habs in den letzten Post noch nachbearbeitet aber hier nochmal:

Zitat:
"Laut AMD seien vor allem Fernseher mit HDMI-2.0-Eingang nicht sonderlich weit verbreitet und daher sehe man noch keinen Bedarf, einen entsprechenden Anschluss anzubieten."
Quelle

Bei dieser Aussage bekomme ich die Kretze...denn in dem Beitrag wird auch deutlich, dass es wohl nicht so einfach geht! Die Aussage sugeriert aber, sie hätten wenn sie wollten...

Ach ja und nochwas, schau dir die Bewertungen auf Amazon an, da wird recht deutlich, das es viele Leute gibt die über die Altenative nachdenken. Ich habe mich auch nicht selber als Beispiel genommen, ich habe lediglich meine Erfahrung wiedergegeben.
 
Zuletzt bearbeitet:
Und was ist an "nicht sonderlich weit verbreitet" nun falsch?

Nur weil die Werbung wie irre auf 4K donnert, hat das noch lange nichts mit der realen Verbreitung zu tun. Und dabei geht es nicht einmal darum, daß niemand 4K haben wollen würde, sondern darum, daß die komplette Ausstattung, um 4K zu betreiben, für die meisten schlicht und ergreifend zu teuer ist!

Und ich möchte mal echt gern wissen, welches Spiel du im "gaming mode" deines UHD-TV spielst, und vor allem, welche Grafikkarte du hast, damit dieses Spiel in 4K und 60 Hz überhaupt zu packen ist....
 
Ja und? AMD ist der Meinung, nach Marktforschung usw das 4K Fernseher für die Zielgruppe nicht so relevant sei.

Du und 2-4 andere Leute hier im Thread behaupten für sie sei es relevant, weil sie einen 4K Fernseher besitzen bzw sich anschaffen wollen und darauf spielen. Wovon man gewohnheitsgemäß vermutlich ca. 30-50% der Aussagen dazu noch anzweifeln darf, in Foren wird über die eigene technische Ausrüstung auch gerne mal "Wunschdenken" geäußert.

Die absolute Mehrheit de 4K Fernsehbesitzer, werden weder einen PC zum Zocken, noch zum Anschauen von zukünftigen UHD Blu Ray Medien verwenden.

Genauso könnte man jetzt argumentieren das niemand auf einem 4K Fernseher zockt, solange dieser nicht min 120/144 Hz respektive Adaptive Sync/FreeSync/G-Sync unterstützt... :rolleyes:

Wieviele haben bei G-Sync geschrien nie wieder 60Hz...
 
Zuletzt bearbeitet:
Wie schon geschrieben, kann ich 4k nur bis 30 Hz spielen und das Spiel ist the Witcher 3. Dazu habe ich aber auch probiert das Spiel in HD mit 60 Hz zu spielen und ich komme mit meine AMD 280x auf knapp 50 Fps. Da merke ich keinen Unterschied zu meinen kleinen 24 Monitor.
 
Wobei man ja schon ein kleines bisschen zugestehen muss, dass AMD mit dem 4K@60 bei TVs etwas auf dem falschen Fuss erwischt wurde. AMD war halt bei Architekturlegung (vor 3 Jahren?) davon überzeugt (und sind es vermutlich auch immer noch) dass 4K@60 TV-Geräte nicht weiter verbreitet werden, als es zum Zeitpunkt vor 3 Jahren der Fall war.
Der Markt von solchen Geräten hat aber erst vor 1,5 bis 2 Jahren das wachsen angefangen.

Dann ist auch klar, dass AMD nur mit einer neuen Architektur darauf reagieren kann. Sofern Sie das wollen, was (glaube ich) nicht unbedingt der Fall ist, da sie HDMI keine große Bedeutung beimessen.

MfG tb
 
@tb4ever
Wieviele Leute kaufen denn wirklich einen 4K Fernseher? Und wir reden jetzt nicht von den 600€ Fingern aus dem real Warenhaus.
Sondern von brauchbaren Modellen.

Selbst diejenigen in unserem Freundes und Bekanntenkreis die bereits 50-60" Geräte besitzen sagen ihnen reicht 1920*1080 erstmal vollkommen aus.

Hier im Technikforum wirkt es unter den "Nerds" immer gerne so als seien sie die entscheidende Käuferschicht. Dies ist es mitnichten.
 
@tb4ever

Genau! Es gibt z.Z. 5x soviele UHD-TVs mit HDMI 2.0 wie 4k Monitore.

Mir geht es auch nicht darum, dass ich selber einen habe, sondern das AMD es m.M.n. vergeigt hat, nicht auf den Zug aufzuspringen. Meine letzte Nvidia Graka war eine 8800GT seit dem habe ich nur AMDs im Rechner gehabt. Nun zeichnet sich aber ab, dass ich wohl wechseln muss. Ich habe aber immer noch die leise Hoffnung das es bald DP->Hdmi 2.0 Adapter geben wird, wenn nicht war es das für mich.

Im Herbst wollte ich mir eine neue Graka zulegen und ich Hoffe inständig dass sich da noch was tut.

Und nochwas, dieser ganze Porno-Hype um 4 k wurde doch erst von Nvidia und AMD so richtig angeheizt. Schaut man sich die nackten Zahlen an, gibt es aber kaum brauchbare Monitor, somit ist diese ganze 4k Geschichte eh nur für eine kleine Randgruppe von Gamern relevant.
 
Zuletzt bearbeitet:
PiPaPa schrieb:
Hier im Technikforum wirkt es unter den "Nerds" immer gerne so als seien sie die entscheidende Käuferschicht. Dies ist es mitnichten.

Genau das ist es! Fällt nicht zum ersten mal auf und ist nicht sonderlich schlimm, verzerrt halt nur die Statistik etwas (Forumintern vs. Global).

Nichts desto trotz haben 4K@60 TV-Geräte in den letzten zwei Jahren wohl Marktanteile gewonnen und darauf beziehen sich ja einige hier.

Das es global betrachtet immer noch ein Bruchteil eines Bruchteils ist, dazu reicht allein schon ein Blick auf die Steamstatistik zur Nutzung von Auflösungen allgemein.

MfG tb

@Schaby: Ich würde nicht sagen, dass AMD es vergeigt hat. Sie haben sich gegen etwas entschieden und genau dort hat sich der Markt (zu AMDs Ungunsten) weiter entwickelt. Und ob sich UHD-TVs mit HDMI 2.0 so weiterentwickeln oder ob auf lange Sicht doch UHD-TVs mit DP kommen, kann jetzt keiner sagen.
 
Zuletzt bearbeitet: (Ergänzung)
Zurück
Oben