News AMD Radeon: Offiziell: Fiji-GPU abgelichtet, Start am 16. Juni

Was juckt die Vergangenheit. Es lebe die Zukunft und da ist es immer das gleiche: Lass dich überraschen.
 
Lemiiker schrieb:
Wie kann ein Foto eines Chips so viele Kommentare erzeugen?

Weil man zum ersten Mal eine ganz neue Technologie sieht. Ich habe bisher immer Karten gehabt, wo viele keine RAM Bausteine um den Chip verteilt waren. Da hab ich z. T. selber Kühlsysteme drauf gebaut, oder neue WL-Paste gesetzt.

Nun geht eine Ära zu ende. In 1-2 Jahren werden wohl alle neuen GPUs ihren Speicher direkt am Chip habenmund dabei nicht nur deutlich schneller sein, sondern auch weniger Strom verbrauchen.

Sieht einfach ziemlich cool aus. Wer will schon noch alten GDDR? :D
 
Plus kommen dann AiO Kühlungen endlich in Frage :)
 
Lemiiker schrieb:
Wie kann ein Foto eines Chips so viele Kommentare erzeugen?

Weil es durch NDA und leak-lockdown von AMD keine Benchmarks gibt, die so viele Kommentare erzeugen könnten derzeit.Wir stürzen uns auf das, was vorhanden ist: Rahmeninfos zur Architektur und Bilder. Alle anderen Infos zu Fiji sind futschikato :freaky:

Positiv gesehen sieht man ja, wie gespannt die Szene ist auf AMDs neues Produkt :hammer_alt:
 
Naja so wirklich interessant werden eh erst die nächsten Generationen. Noch sind die Titan/980ti und auch die kommende Fury zu langsam für ernsthaftes 4K Gaming. Da braucht es momentan noch 2 Gpus. 700-1000€ für ne GPU gebe ich erst dann aus wenn die so gut wie alle Spiele in 4K und alles auf Ultra ohne Mucken macht. Dann sind hoffentlich auch die passenden Monitore zu kaufen, sprich 4K, 144Hz, IPS oder PVA Display, eine Sync Technologie und mindestens 32". Dann ist auch DDR4 günstiger und es lohnt sich aufzurüsten. Mit dem Zeug momentan ist das irgendwie Perlen vor die Säue geworfen und nichts halbes und nichts ganzes.
 
Ich werde mir definitiv eine OC Variante von Sapphire Fiji bestellen (und zwar die 8 GB HBM Variante), sobald sie draussen ist. Kohle steht schon bereit, muss meine HD 7950 in Rente schicken, wird auch langsam Zeit.

Ich freue mich sehr auf die Fiji Grafikkarte und hoffe für AMD, das die Fiji Grafikkarte einschlägt wie eine Bombe - so das nVidia einmal kräftig atmen muss.

Wird Zeit das AMD ein Erfolg bekommt (nach so vielen "Niederlagen" gegenüber nVidia).

Ausserdem wünsche ich mir für die Zukunft seitens AMD, das die Treiberpolitik seitens AMD besser aufgestellt wird.

Ich drück ganz fest die Daumen für AMD und ihre neue Fiji Grafikkarte.
 
muss meine HD 7950 in Rente schicken, wird auch langsam Zeit.

Wenn ich sowas immer lesen muss... :rolleyes: Viele Leute würden sich über die Leistung deiner jetzigen Karte freuen. Mit "Rente" hat das nichts zu tun. Liest sich ja fast so als wäre die vom Speed her mit ner Intel HD Graphics vergleichbar.
 
Also erstmal wird Speicherverdopplung bei HBM nicht so einfach wie das bisher immer war, da war es nur eine Kostenfrage welche Speicherchips man auf das PCB setzt. Die Technologie ist bei HBM soweit ich weiß noch nicht so weit.
Des weiteren kann ich das in Rente schicken schon verstehen, mir ist im Grunde auch alles weit zu langsam was bisher so draußen ist. Ich hab nen WQHD Monitor mit 110hz, das will erstmal berechnet werden. Meine 780Ti@1350MHz erzeugt in Witcher 3 jedenfalls so ungefähr 45 fps, und dabei habe ich nicht mal das Ultra, sondern das High-Preset genommen.
 
hab hier beides liegen 290x eingebaut + 7950 rumliegen. Ganz ehrlich ich wäre auch bis heute mit der 7950 zufrieden wenn die Gier nicht grösser wäre ^^. Da ich nur FH nutze ist mein verlangen nach mehr unvernünftig und diemal warte ich auch auch bei HBM auf Version 2 ab, aber versprechen kann ich nix da ich wahnsinnig Neugierig bin wie HBM speichermässig Arbeitet. Und bei alle dem was vermutet wird, wird mir schlecht weil sowas wie HBM noch garnet auf dem Markt ist und Spekulationen für den Po sind. Zumindes meine Meinung
 
Die 8GB Karten lassen sicher nicht lange auf sich warten.
Durch das schnellen Nachladen wird es auch nicht so sehr bemerkbar werden.
 
w0mbat schrieb:
Nein, das ist ausgeschlossen. Außerdem kann man HBM nicht mit altem GDDR5 vergleichen, HBM liefert deutlich mehr Bandbreite und niedrigere Latenzen. da braucht man auch nicht so viel Speicherplatz.

käse hoch 2 4 gb sind 4 gb ob auf einer lochkarte einer festplatte einem chip oder magnetband die größe ist gleich.
was jetzt 2gb braucht wird auch mit HBM version 21 noch 2 GB speicher belegen^^.

käse 1 gddr5 kann easy mit hbm 1 vom durchsatz mithalten :)
HBM 1 ist nicht auf durchsatz sonder auf latenz gewinn(durch die wegstrecke sowieso incl) und vor allem strom effiziens optimiert.

ich bekomm aus einem 384 bit interface mit gddr5 bis zu 380gb/s ohne an der voltage des gddr5 chips zu drehen. mit einem 512 bit sind also 500gb/s kein problem! da liegt aber auch kein Aktuelles Problem durchsatz ist genug da!

Latenz ist eigentlich auch nicht das Problem aktuell könnte bei gddr6(7) eher probleme machen!

der wichtige und beste der 2 mega plus punkte ist strom man spart sehr viel strom was natürlich irgent wo anderst verheizt werden kann(thema mehr shader mehr takt etc pp)
2 großer vorteil die PCB´s werden wider kleiner was grade den OC karten zugute kommt mein in den letzten jahren sind wir ja in alle richtungen expandiert!

breite wurde schon über norm hinaus gebaut und länge ist auch schon bei ü30 cm normal.


Srefanius schrieb:
Guten Morgen, Laie hier. Kann das wer weiter ausführen? Für mich ist das irgendwie mit einer der entscheidensten Faktoren. Ich beiße mir heute ein wenig in den Hintern, dass ich damals die 680 mit 2 gb genommen habe. Zum aktuellen Zeitpunkt sind 4 gb natürlic mehr als genug, aber VRAM macht Grafikkarten wesentlich langlebiger. Können 4 gb HBM denn mit 6 gb GDDR5 mithalten?

nein 4 ist kleiner als 6 :) genauso wie 6 kleiner 8gb ist und 8gb hbm kleiner 12 gb

jomaster schrieb:
Eine Frage hätte ich, wie wirkt sich die Die-Size auf den Chip bezüglich wärmeentwicklung aus. Bzw. was sind allgemein die Vor/Nachteile?
Angeblich der größte Chip von AMD, hat das nicht den Vorteil, dass sich die wärme Entwicklung besser verteilt und somit die Hitze über eine größere Fläche abführen lässt? Nachdem es die Karte ja eh mit einem Wasserkühler gibt, wäre diese Kombination doch perfekt zum übertakten, sollte man einen guten Chip erwischen :) Klärt mich bitte einer dazu auf? Vielen Dank!

ja und nein. 40-50% der hitze probleme liegen an der packung selber wen man zb viele hitze hotspots in der mitte hat ist klar das der chip schnell warm wird.

nicht umsonst werden teilweiße die chips noch mit einer mischung aus men sch computer layout gebaut!

amd baut aber glaub ich nur noch via computer gelegtem layout!

nvidia ist noch mit man power dabei und giebt so zu sagen dem computer eine vorgabe wie sie es ca hätten wollen.
bevore jetzt 1 mault nein nvidia macht es nur aus hitze sicht besser

am schlausten macht es eigentlich amd weil ihr chip deutlich effizienter gepackt ist und somit meist die etwas höhere trasistoren pro 1nm² oder mm² und auch in m² hat^^

beides hat ihre vor und nachteile was mitlerweile woll nicht mehr geht ist ein rein von menschen gelegtes layout bei mrd transistoren.

früher wurde das ja alles noch von menschen gemacht!



Meine meinung ist das amd gerne fiji mit 50% über titan x haben kann ^^

bringt nur nix wen sie unten rum nix neues haben den genau da kaufen 99% ein!
im bereich 250-350 euro muss man den alles im boden stampfenden über chip mit ewig viel vram haben!

ich chill aktuell auf meinen gk110 chips(1337mhz 24/7 Sli) Release 2013 stand 2015 GTX 970 frist staub :evillol: gtx 980 ist kaum schneller.

und wen es sein muss ich kann noch bis 1550 mhz hoch Titan X sli ist mir zu teuer und ihre verkrüppelten GM200 chips können die behalten ab 500 euro muss es ein vollausbau sein!
 
Ich hoffe AMD gelingt mit Fury bzw Fiji echt ein großer Sprung.
Sie können es gebrauchen und hoffentlich nVidia damit ganz schön einheizen.
 
Mojo1987 schrieb:
Das spart massiv Fläche. Der Controller an sich ist nämlich eines der grössten Teile im Chip.

Das 384 Bit SI im Tonga nimmt ~41,5mm² ein. Ersetzt man dieses durch ein HBM SI dürfte Platz für 4-5 CUs frei werden, mehr nicht. Nehmen wir mal an, dass das 384 Bit SI im GM200 ähnlich viel Platz braucht, dann spart AMD gegenüber Nvidia vlt. 25mm² durch den Einsatz von HBM ein.
 
Zurück
Oben