News AMD Radeon: Offiziell: Fiji-GPU abgelichtet, Start am 16. Juni

@PiPaPa
Was soll nVidia anpassen? Die Kuh ist doch seit Tagen (wenn nicht gar Wochen) vom Eis. Vor allem bei der Titan X.
Wozu sollte man absichtlich seine Partner mit Bios-Versionen versorgen, die das Niveau unterhalb einer 980 Ti vortäuschen, obwohl sie womöglich über der Titan X liegt?
Wie viel muss denn von den paar KB Bios noch 2 Wochen vor der Präsentation geschrieben werden? Gibt es dazu Quellen?

Ich würde es ja auch als Quatsch abtun, aber nicht jeder Standfuzi kann einem mal eben eine Fury in die Hand geben und sagen "Schraubt mal dran rum!". Der Herr dürfte schon etwas mehr Befugnisse bei seiner Firma haben und damit auch besser informiert sein.

@BlauX
Wofür es für dich ins Aquarium ging. :rolleyes:
 
BlauX schrieb:
@Volker,

mehr als der gefoppte Partner zumindest, der doch eh wieder ne reine Retourkutsche veranstaltet hat, weil ihm was nicht passte. Genau wie bei den Monitoren mit FreeSync. Denen das warten anscheinend nicht gefallen hat.

Ja gerade die kleineren AMD-Partner sind alle schon angepisst. Die stehen teilweise schon mit dem Rücken zur Wand weil es nichts neues gibt, verkaufen so nur noch eine Handvoll Grafikkarten die Woche und wissen nicht weiter. AMD muss da aufpassen, sonst gibt es in einem Jahr nur noch die Hälfte der Anbieter, die Stimmung hier ist teilweise echt mies. Deshalb ist auch alles was da jetzt durchsickert mit extremer Vorsicht zu genießen. Einfach mal noch 2 Wochen warten!
 
Volker schrieb:
Hmm, woher hast du denn all diese Sachen - auch hier? Von der Luxx-Meldung stimmt vieles nicht, wir wissen ja auch mehr als wir sagen. Gerade die Leistungsdaten. Also genau das was du da sagst gehört auch alles dazu - kein BIOS und kein Treiber ;)

Klingt ja fast nach einer Bestätigung, dass die Fury schneller als die Konkurrenz ist. :D
 
Okay. Warum zersäbeln die "Kleinen" sich dann aber noch zusätzlich das Geschäft, indem sie Karten antatschen lassen und von weniger Leistung ausgehen?
Dann können sie doch gleich die Tür abschließen?
 
man kann doch davon ausgehen das Fiji die Leistung einer 295X erreicht mit halbiertem stromverbrauch, zumindest gab es in dieser richtung schon einige Gerüchte.
Da die 295X ca. 10% schneller in 4k im durchschnitt zur Titan ist wäre das dann doch perfekt zum Preis einer TI von NV bekomm ich mehr Leistung als eine Titan. Das würde auch den TI release erklären der ca. 1% langsamer ist als die titan aber nur um die 700€kostet.
 
@Fried_Knight,

zurecht! Deins aber nicht, wo du mir unterstellt hast, ich hätte behauptet HWluxx sei nicht da, und ich würde behauptet haben, das wer die Computex verpennt. Stimmte einfach nicht. Und da wunderst dich, wenn ich dich angehe? ... sorry ..


Warum die das machen?...
Abkäufe der Konkurrenz zu pushen ( und damit natürlich den eigenen ) und ein Signal zu setzen, dass denen das nicht gefällt, was mit denen getrieben wird ( was, weiß man ja nicht genau, außer, dass AMD die warten lässt )
AMD muss da sicherlich mehr zuarbeiten, allerdings hat AMD so wie es scheint, nicht mehr das Vertrauen in einige Partner und zögert da wohl auch viel zu übertrieben.... das erklärt auch die scharfen NDAs und totalem Stop.
Das sind aber alles Dinge, die kann man nicht näher erklären, dazu fehlt es schlicht an Internen Infos als auch von dem ganzen drum herum, den niemand mitbekommt, wieso AMD sich so verhält.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Naja Iwoher kommen die Screenshots der 8GB Version bei chiphell ja auch...

Der Screenshot gibt nen Speichertakt von 626MHz an, das deckt sich nicht mit den Angaben von 500MHz von SK hynix für die aktuell verfügbaren HBM-Module. Zumal AMD keinen Grund hätte einen höheren Takt zu nutzen, da man mit einer Bandbreite von 512GB/s bei 500MHz eh schon weit in Führung liegt und mehr nicht braucht um die GPU zu füttern.


Krautmaster schrieb:
Langsamer als ne GTX 980 Ti wäre schwach. Bei dem Chip und etwa 1000mhz zumindest

Ich persönlich wäre verwundert wenn Fury schneller als ne GTX 980Ti wäre. Die 980Ti kommt auf die gleiche Leistung wie die Titan X, basierend auf einem 601mm² großen reinen Gaming-Chip. AMD kommt mit einen ~530mm² Chip um die Ecke, der architekturbedingt Transistoren für 1:2 (DP/SP) Leistung mitschleppt. Wenn man da keine min. 30% höhere Packdichte als Nvidia hat, seh ich da keine wirkliche Chance gegen GM200 ohne so weit den Takt zu heben, dass der Verbrauch abartig hoch wird.

Fried_Knight schrieb:
Vor allem nicht bei 375 Watt Verbrauch.

Wie kommt man auf 375W? Das Ding hat zwei 8 Pin Stromstecker weil es gleich mit Wasserkühlung kommt und man so mehr Übertaktungsspielraum hat und nicht weil man für die Standardversion 375W braucht. Der Verbrauch bei Spielen wird unter 300W liegen.
 
@BlauX

OT:
Mein Gott, weil sich wer um 6Uhr morgens bei so einer Nichtigkeit vertut, musst du gleich ausfallend werden? Das ist eine alberne Erklärung und geht auch anders. Also bitte. :rolleyes:

@Volker
Jetzt geh ja nicht weg und lass uns hier nicht ganz ohne ein eigenes, dunkles Gerücht zurück. Wenn luxx das darf, muss doch auch bei euch was gehen. :>
Welchen Partnern steht das Wasser denn am höchsten?
 
Zuletzt bearbeitet: (typo)
Warum haben sich zB große OEMs wie HP, Dell usw sich von Intel erpressen lassen? So manches Verhalten in der Branche gibt mir zu denken.
Angefangen bei Notebooks mit AMD CPU welche künstlich verschlechtert werden im Vergleich zum Intel Pendant.

Zu den BIOS Versionen kann der Hersteller auch bsp Shader erst in der finalen Version freischalten und in den Vorabversionen mit angezogener Handbremse laufen lassen.
Das nennt sich Betriebsgeheimnis wahren.

Deiner Logik nach Bedarf es auch keiner Erlkönige o.ä.;)
 
Man hat sich den Hintern tragen lassen, PiPaPa.
Das ist leider überall so. Wenn der Gewinn höher ist, als die mögliche Strafe, ist das ein lohnendes Geschäft, gerade in der IT-Branche wird vieles aus Sicht des Gesetzes lockerer gesehen, als z.B. Erpressung/Diebstahl am Menschen.

Genau wie sich die gefoppten Partner an die Öffentlichkeit wenden, muss sich bei solch einem Fall der Verbraucher zu Wort Melden. Wenn das nicht geschieht, lässt man es zu. Mögliche Wiederholungen lässt man weiter gedeihen.
Die Mittel bleiben die selben, wie diese eingesetzt werden, dass ändert sich bis ins unkenntliche, wo dann kein Verbraucher mehr einen Überblick hat.
 
Zuletzt bearbeitet:
Mal sehen ob sie die Zotac 980ti AMP Extreme verseilt...die hab ich mir nämlich bestellt, also guck ich mir das mal an.
 
Da lässt sich irgendwer mit einen Chip in der Hand fotografieren, von dem keiner hier weiß was es eigentlich ist, weil keiner hier jemals zuvor einen lauffähigen oder sich in Betrieb befindenden Fiji-Chip gesehen hat und hier brechen schon wieder Grabenkämpfe und Spekulationen darüber aus, ob dieses Ding jetzt schneller oder langsamer als das Konkurrenzprodukt ist!? Alles anhand eines Fotos und einer Aussage von der niemand weiß ob sie Marketing oder Realität war. AMD hatte in der Vergangenheit schon öfter viel versprochen und behauptet aber nur sehr wenig davon gehalten.
Es geht hier immer noch um eine obszöne Grafikkarte oder? Nicht um ein Perpetuum mobile, die Lösung der Rentenfrage oder das beenden Welthungers?
 
PiPaPa schrieb:
Ah komm schon... :rolleyes:
http://www.nvidia.de/object/geforce-gtx-980-ti-de.html#pdpContent=2

Nvidia empfiehlt auch 600W Netzteile bei der 980 Ti... Bei der 970 immer noch 500W.

Problem der Hersteller das sie auch die Chinaböller beachten müssen.
Diese NT Empfehlungen sagen rein gar nichts über den Verbrauch aus.

Die Effizienzkrone gewinnt AMD damit leider nicht, aber das wäre vermutlich auch zuviel erwartet gewesen. Vielleicht klappt es ja nach dem Shrink und besser angepasster Architektur mit Fiji oder Arctic Islands im nächsten Jahr.

Mickey Cohen schrieb:
zu den 4GB speicher: könnte es denn nicht auch sein, dass 4 GB HBM an bord sind und zusätzlich noch 4 GB herkömmlicher GDDR5?

Dann würdest Du vermutlich die Speicherleistung arg kastrieren (weitaus mehr als bei der GTX970 kastriert wurde), vergleichbar mit unterschiedlichen RAM-Modulen auf dem Mainboard, wobei das schnellere Modul sich an die Maximalleistung des langsameren anpassen muss.

Wunschdenken:

Wenn es drei Kartenvarianten der "Fury" geben sollte und die kleinste (4 GB Pro) Variante (für ca. 599 Euro, zu billig darf die Karte auch am Anfang nicht werden, sonst springt für AMD dabei zu wenig Profit heraus, welcher teilweise in die Forschung an der nächsten Karten-Generation investiert werden dürfte) sich zwischen GTX980 und GTX980Ti leistungstechnisch anfänglich einordnet, wäre das schon optimal, solange die beiden stärkeren (XT) Varianten mit der 980Ti/Titan X gleichziehen und diese leicht outperformen bei geringeren Marktpreisen.
 
w0mbat schrieb:
Nein, das ist ausgeschlossen. Außerdem kann man HBM nicht mit altem GDDR5 vergleichen, HBM liefert deutlich mehr Bandbreite und niedrigere Latenzen. da braucht man auch nicht so viel Speicherplatz.
Guten Morgen, Laie hier. Kann das wer weiter ausführen? Für mich ist das irgendwie mit einer der entscheidensten Faktoren. Ich beiße mir heute ein wenig in den Hintern, dass ich damals die 680 mit 2 gb genommen habe. Zum aktuellen Zeitpunkt sind 4 gb natürlic mehr als genug, aber VRAM macht Grafikkarten wesentlich langlebiger. Können 4 gb HBM denn mit 6 gb GDDR5 mithalten?
 
PiPaPa schrieb:
Deiner Logik nach Bedarf es auch keiner Erlkönige o.ä.;)

Nein, ein Erlkönig steht nicht zwei Wochen vor der Veröffentlichung. Der ist noch nicht mal im Design abgeschlossen. Von daher passt der Autovergleich mal wieder gar nicht.
Ich sehe die Logik einfach zu diesem Zeitpunkt nicht mehr. Nvidias Karten liegen auf dem Tisch und gerade, um noch ein paar 980 Ti-Besteller abzuhalten, wären echte Fakten jetzt doch mal langsam ideal?!
Was erhofft man sich? "Nänänä ihr habt euch eine 980 Ti gekauft und kurz nach Ablauf des Widerrufrechts zeigen wir euch: die Fury! Verarscht! Wir sind viel schneller als gedacht und ihr werdet uns nun wohl nicht mehr kaufen können/wollen! Ätschibätsch!"? :D
 
Eine Frage hätte ich, wie wirkt sich die Die-Size auf den Chip bezüglich wärmeentwicklung aus. Bzw. was sind allgemein die Vor/Nachteile?
Angeblich der größte Chip von AMD, hat das nicht den Vorteil, dass sich die wärme Entwicklung besser verteilt und somit die Hitze über eine größere Fläche abführen lässt? Nachdem es die Karte ja eh mit einem Wasserkühler gibt, wäre diese Kombination doch perfekt zum übertakten, sollte man einen guten Chip erwischen :) Klärt mich bitte einer dazu auf? Vielen Dank!
 
Srefanius schrieb:
Können 4 gb HBM denn mit 6 gb GDDR5 mithalten?
Wenn ein Spiel 5GB an konstant verfügbaren Texturen in den Speicher legt, dann laufen die 4GB vom HBM ebenfalls voll. Vorteile hast du z.B. beim Nachladen der Daten oder beim Entfernen nicht mehr benötigter Daten im Speicher.
 
Hoffentlich haben die Karten dann eine ähnliche Leistung wie die 980 oder sogar 980 Ti bei ähnlichem Preis. Dann wird meine GTX 670 ersetzt :D Mal schauen, was die nächsten Wochen noch bekannt wird.
 
Zurück
Oben