News AMD Fiji: Vom ersten Schritt zum fertigen Produkt in 8,5 Jahren

@Belerad
Warum soll ich was belegen was doch klar ist. AMD hätte doch Freesync vor Nividia`s GSync auf den Markt bringen können, haben sie aber nicht. Da dieses Feature nicht unerheblich ist und Nvidia sein eigene Lösung auf den Markt gebracht hat und diese auch nur mit der eigenen Hardware funktioniert, musste AMD reagieren und auch dieses Feature auf den Markt bringen. Was sie gemacht haben, dazu kommt noch das Freesync kostenfrei ist und man kein sperriges Modul verbauen muss, was natürlich auch für die Monitor Hersteller sehr attraktiv ist. Man kann Nvidia mögen oder auch nicht, man kann Nvidia auch unmoralisches Verhalten vorwerfen, aber wenn es um wichtige Entscheidungen geht, scheinen sie immer einen Schritt schneller zu sein als AMD. Das muss nicht immer so bleiben, aber derzeit ist es so.

@issenia
Sollte es so kommen, wäre es doch für uns User toll, denn wir würden davon wohl am meisten Profitieren. Dagegen hätte doch keiner was, außer vielleicht Nvidia. ;)

@
zeedy
Nein. Adaptiv Sync mag schon in der Entwicklung gewesen sein, aber AMD hat es wohl nicht als so wichtig erachtet wie Nvidia, sonst hätten Sie wohl Freesync vor Nvidia`s Gsync eingeführt. Somit war halt Nvidia wieder einmal den berühmten Tick schneller.

 
Zuletzt bearbeitet:
Wadenbeisser schrieb:
Genau diese Lösung gibt es mit adaptive sync/Freesync, eine Lösung die nvidia offensichtlich im Desktop Bereich nicht unterstützen will.

Da Intel jetzt offiziell adaptive sync setzt, ist die Aussage bezüglich Freesync von Zotac sowieso nicht mehr haltbar, nämlich dass man bei Freesync AMD abhängig wäre. Auch wenn hier gezielt von Grafikkarten gesprochen wird, sind es immerhin jetzt zwei Hersteller, die auf die Software Variante setzt.

zeedy
Die Gsync Variante kann genau deshalb früher am Markt sein, weil die Hardware-Variante eventuell leichter umzusetzen war. Betonung liegt auf vielleicht.
Anders Beispiel wäre ja AMD und Intel bezüglich Integration der GPU. Bei Intel wurde das schnell gelöst, indem man ein MCM Chip hatte. Bei AMD wusste man, dass ATI gekauft hatten um APUs zu entwickeln. AMD hatte aber aufgrund von Fertigungsproblemen (45nm) und einer APU aus einem Chip länger gebraucht.

Am Ende sage ich es eher so. Es ist völlig egal, wer zu erst da war. Wichtiger ist eher, was sich durchsetzt. In Technologien Geld zu investieren die dann nach Jahren wieder eingestampft werden ist wohl schmerzlicher, als dass die Konkurrenz auf deine Technik setzten muss, selbst wenn sie keine Lizenzen zahlen. Grund Zeit und Ressourcen.

Aber das ist meine persönliche Ansicht. Kann natürlich auch andere Argumente geben.

aber wenn es um wichtige Entscheidungen geht, scheinen sie immer einen Schritt schneller zu sein als AMD.
Sehe ich als Behauptung. Das Marketing schafft es eher so aufzustellen. Siehe Konsolen Deals. Da wurde groß erzählt man hat sich an Tegra und Projekt Denver als Zukunftsmarkt orientiert, weil die Konsolen keine Margen abwerfen ect. Jeder hat das sofort gefressen.
Was war ? Denver wurde offensichtlich eingestellt. Einige Abteilungen geschlossen und Tegras werden vorwiegend in Autos verkauft. Und obwohl ja Konsolen keine Margen einbringen, versucht NV es alleine auf den Markt oder investiert in kleinere Firmen.
PhysiX ist hat sich auch nie durchgesetzt, weil man es nur auf NV Karten unterstützt. Jetzt kommt Compute Shading durch DX12. Wenn es laut AMD stimmt und in 2 Jahren die meisten Games DX12 sind, wird PhysX dann auch "Geschichte" sein. Auch das meine persönliche Ansicht, aber man sieht bereits, dass NV PhysX Beschränkungen aufweitet und sogar mehr Einsicht als früher gewährt.

Dann möchte ich mal sehen, welche Schritte denn NV denn so viel früher "gesehen" hat ? Dass die nächste Generation der NV GPUs auch auf mixed precision Architektur setzt, zeigt eher, dass AMD offensichtlich mit GCN nicht so auf den falschen Weg befinden dürfte.
Bei NV wird die erste Generation kommen und AMD wird bei der nächsten Generation GCN zum ersten mal ordentlich umkrempeln. Da wird von doppelter Performance pro Watt nur durch die Architektur gesprochen.
 
Zuletzt bearbeitet:
Wadenbeisser schrieb:
Alte, verbreitete Software lief auf dem Chip mies und keine hatte Bock sich auf eine neue Programmierung einzustellen oder in neue Programme zu investieren.
Nichts was man nicht mit neueren Revisionen korrigieren hätte können...
Zu deinen "keiner" gehören nur solche Klitschen wie Oracle, HP, Microsoft, etc.

Viel eher dürfte das Problem sein, dass der Itanium als Voraussetzung einen Gott-Compiler braucht...
 
Zuletzt bearbeitet:
Zotac2012 schrieb:
@Belerad
Warum soll ich was belegen was doch klar ist. AMD hätte doch Freesync vor Nividia`s GSync auf den Markt bringen können, haben sie aber nicht. Da dieses Feature nicht unerheblich ist und Nvidia sein eigene Lösung auf den Markt gebracht hat und diese auch nur mit der eigenen Hardware funktioniert, musste AMD reagieren und auch dieses Feature auf den Markt bringen. Was sie gemacht haben, dazu kommt noch das Freesync kostenfrei ist und man kein sperriges Modul verbauen muss, was natürlich auch für die Monitor Hersteller sehr attraktiv ist. Man kann Nvidia mögen oder auch nicht, man kann Nvidia auch unmoralisches Verhalten vorwerfen, aber wenn es um wichtige Entscheidungen geht, scheinen sie immer einen Schritt schneller zu sein als AMD. Das muss nicht immer so bleiben, aber derzeit ist es so.




Es ging doch in deiner Ursprünglichen Aussage doch gar nicht darum, das G-Sync vor Freesync verfügbar war. Das streite ich ja auch keineswegs ab. Es ging mir rein um die Aussage, das AMD erst dann die Forschung voran getrieben hat als Nvidia G-Sync auf den Mark brachte.
Ich muss dich nicht daran erinnern, das G-Sync ende März 2015 verfügbar war, die erste lauffähige Demo(!) von Freesync schon im Januar 2015. Dies widerspricht deiner Aussage, das AMD erst nach erscheinen von G-Sync die Entwicklung voran getrieben hat.
 
Zotac2012 schrieb:
@GermanGhettos
Und was ist daran so schlimm das Nvidia sich der Technik bedient, auch wenn sie nichts dazu beigetragen hat ? Glaubst Du AMD hat sich noch nie einer Techik angenommen, die sie selbst nicht entwickelt haben, bestimmt nicht.

Weil immer auf AMD geprügelt wird, was für eine minderwertige Marke es wäre und sie nichts leisten und
gerade die Nvidia Fanboys immer davon überzeugt sind, dass Nvidia das A und O wäre, obwohl viele nicht mal wissen,
was AMD wirklich alles gemacht hat.
Die meisten Helden kaufen sich z.B. eine Nvidia Karte denken sich, dass sie etwas total hochwertiges erworben haben,
weil Nvidia drauf steht und in Wirklichkeit steckt mehr AMD drin, als sie denken.
Im nächsten Moment wird dann aber wieder gegen AMD geflamed.
Und dass Nvidia auch gut gegen AMD feuern kann, ist ja auch kein Geheimnis.
Andersrum geht das alles natürlich genauso!
Hier geht es aber um AMD und den HBM Speicher und URSPRÜNGLICH ging es darum, dass ich mich gewundert habe,
warum CB genau diesen entscheidenden Satz weggelassen hat, obwohl die Berichte von Golem und CB fast 1:1 abgeglichen sind.

Und ich bin kein Nvidia Feind.
Ich entscheide dannach, was aktuell auf dem Markt los ist.
Vor der aktuellen AMD Serie, habe ich auch Nvidia empfohlen.
Auch wenn Nvidia mit Aktionen wie der 4GB Lüge sich eben selbst ins Knie schießt.
Aber die Fanboys juckt das halt nicht, denn es steht Nvidia drauf, also muss es besser sein.
Ich denke es ist klar, was ich ausdrücken will. ;)
 
Zotac2012 schrieb:

@
zeedy
Nein. Adaptiv Sync mag schon in der Entwicklung gewesen sein, aber AMD hat es wohl nicht als so wichtig erachtet wie Nvidia, sonst hätten Sie wohl Freesync vor Nvidia`s Gsync eingeführt. Somit war halt Nvidia wieder einmal den berühmten Tick schneller.


Ist das dein Ernst? Das soll ein Argument sein? Wo sind wir denn hier, im Kindergarten? "aber AMD hat es wohl nicht als so wichtig erachtet wie Nvidia, sonst hätten Sie wohl Freesync vor Nvidia`s Gsync eingeführt. Somit war halt Nvidia wieder einmal den berühmten Tick schneller." :freak: Du hast vorhin andere als ahnungslos bezeichnet, dabei zeigst du mit dieser unglaublich plumpen Behauptung, dass du tatsächlich derjenige bist, der keine Ahnung von der Materie hat.
Schon mal daran gedacht, dass eine Softwarelösung schwieriger ist und/oder länger braucht bzw. dass eine Aufnahme in den VESA Standard nicht von heute auf morgen geschieht?

Lustige Beobachtung nebenbei: als Microsoft DX12 kurz nach Mantle ankündigte, meinten Nvidia Fanboys, DX12 würde sich schon seit Ewigkeiten in Entwicklung befinden und hätte nichts mit Mantle zu tun. Bei Gsync heißt es aber, AMD hätte erst nach GSync angefangen an FreeSync zu arbeiten... :rolleyes: lächerlich.
 
AnotherWorld schrieb:
Nur mal so eine Frage am Rande, warum könnt ihr nicht "Erträge" anstatt "Yields" schreiben?
In der Halbleitertechnik würde man mit "Ausbeute" übersetzen, im wirtschaftlichen Bereich eher mit "Rendite".

Wenn jemand von Yield spricht ist jedenfalls eine Relation von Aufwand und Ertrag mitzudenken, darum wäre Ertrag oder Erträge keine glückliche Übersetzung, denn die Bedeutung des Ins-Verhältnis-Setzens würde damit verloren gehen.
 
@Belerad
Tut mir leid aber wieder mal liegst Du falsch, es gab schon im Januar 2014 GSync Module die man selbst nachrüsten und im Asus VG248QE Monitor einbauen konnte. Natürlich hat AMD nachdem GSync verfügbar war die Entwicklung von Freesync deutlich vorangetrieben, auch wenn Du das nicht so siehst. Aber darum ging es hier im Thread auch nicht, sondern um den HBM Speicher. ;)

@zeedy
Sorry, aber mit Dir lohnt sich leider keine Diskussion, da Du immer alles durcheinander wirfst und außer persönlichen Beleidigungen, nicht wirklich zum Thema beiträgst. Man kann eine Meinung haben oder auch eine andere, deswegen muss ich trotzdem niemand Persönlich beleidigen, weil mir dessen Meinung nicht gefällt. OK! Deswegen werde ich nicht weiter auf Deine kontraproduktiven Beiträge eingehen.
 
Zuletzt bearbeitet:
PiPaPa schrieb:
Komisch, dabei schläft doch AMD seit Jahren laut der Forenexperten hier.

Ob sie schlafen oder nicht ist ja völlig irrelevant es geht um die Produkte die am Ende rauskommen. Wenn Intel die vergangen 10 Jahre geschlafen hätte hätte es trotzdem niemanden interessiert da die Produkte gut waren. Ob AMD jetzt 8,5 Jahre schläft oder 8,5 Jahre den Hunger der Welt bekämpft hat ist auch völlig latte wenn am Ende nichts gutes bei rumkommt.

In der Wirtschaft ist es völlig egal wie viel "Mühe" du dir mit deinem Produkt gegeben hast es zählt nur was am Ende rauskommt. Du magst es vielleicht als "unfair" empfinden wenn du an einem Produkt 3 Jahre arbeitest und es floppt und dein Konkurrent arbeitet daran 6 Monate und hat einen Bombenerfolg aber es ändert nichts am Erfolg und Misserfolg.

herliTz_234 schrieb:
Das habe ich mir auch gedacht. :)
Manchmal kommt es mir so vor das die Leute denken das ein Chip Entwickeln so einfach ist wie Nudeln kochen!

Also bitte Nudeln kochen ist eine große Herausforderung für mich da baue ich dir lieber eine Platine zusammen! :)
 
Zuletzt bearbeitet:
QDOS schrieb:
1. Hat Intel weit vor AMD mit 64bit auf dem Markt agiert (IA-64)
2. Hat MS x86_64 massiv promotet (Unter anderem dadurch, dass sie verkündeten keine alternative 64bit x86-Erweiterung zu unterstützen. Damit haben sie Intel gezwungen eine AMD-Erweiterung in ihre Prozessoren einzubauen => bis heute der einzige Fall für eine nicht-Intel-Erweiterung von x86, welche bei beiden Herstellern verfügbar ist...)

Der IA-64 emulliert IA-32 und hat dadurch eine im Vergleich zu einem nativen IA-32-Prozessor miserable Performance bei IA-32-Code. Das dies bei einer großen Verbreitung von Software auf IA-32-Basis nicht sonderlich gut ankommt ist nicht gerade verwunderlich.
Abgesehen davon gab es von Microsoft sowohl XP als auch Server für IA-64, nur durchgesetzt hat es sich aus obigen Gründen nicht.

Der Einzige, der Intel gezwungen hat X64 zu verwenden, war einzig und allein der Kunde und nicht Microsoft oder sonst wer.

Cunhell
 
Frage mich was die News mir sagen soll? Das AMD besonders lange gebraucht hat oder waren die im Vergleich zur Konkurrenz sogar schneller?
Fakt ist, wenn man 8,5 Jahre an etwas rumfummelt, dann muß da am Schluß etwas richtig Gutes dabei raus kommen oder man ist Pleite.

Nachtrag:
und ja, ich denke es ist ein Kindergarten hier an dem sich sogar Erwachsene beteiligen!
 
Zuletzt bearbeitet:
QDOS schrieb:
Nichts was man nicht mit neueren Revisionen korrigieren hätte können...
Zu deinen "keiner" gehören nur solche Klitschen wie Oracle, HP, Microsoft, etc.

Viel eher dürfte das Problem sein, dass der Itanium als Voraussetzung einen Gott-Compiler braucht...

Doch es war nicht korrigierbar weil es kein x86er Prozessor ist.
Bestandssoftware lief dort lediglich im Emulationsmodus. Will man die volle Leistung irgendwie nutzen musste neue, nicht x86er kompatible Software her und angesichts der weiteren Entwicklung waren sie vermutlich auch noch schwieriger zu programmieren.
 
Zotac2012 schrieb:
@zeedy
Sorry, aber mit Dir lohnt sich leider keine Diskussion, da Du immer alles durcheinander wirfst und außer persönlichen Beleidigungen, nicht wirklich zum Thema beiträgst. Man kann eine Meinung haben oder auch eine andere, deswegen muss ich trotzdem niemand Persönlich beleidigen, weil mir dessen Meinung nicht gefällt. OK! Deswegen werde ich nicht weiter auf Deine kontraproduktiven Beiträge eingehen.

Nein es lohnt sich eher mit dir keine Diskussion, weil du sehr schlecht argumentierst und Dinge lieber so siehst, wie du willst. Und tu jetzt bloß nicht so als hättest du bloß deine Meinung geäußert...wow also ehrlich...Du stellst teilweise blödsinnige Behauptungen auf, bezeichnest andere sogar als ahnungslos und wirst dann argumentativ "rekt", wie Internettrolle heute gerne sagen.

"deswegen muss ich trotzdem niemand persönlich Beleidigen, weil mir dessen Meinung nicht gefällt" wow..warum hast du dann mit deinem ersten Beitrag im Trine 3 Benchmark Thread einen persönlich beleidigt, weil dir seine Meinung zur GTX970 (die zufälligerweise deine Karte ist..) nicht gefallen hat?

Und womit soll ich dich denn persönlich beleidigt haben? Indem ich schrieb, dass du offensichtlich keine Ahnung hast wovon du redest?

Wenn du nur deine persönliche Meinung äußern willst, dann musst du diese auch so formulieren. Nicht als Fakten.
Es wäre schön, wenn sich öfter Leute melden würden, mit denen man vernünftig diskutieren kann, damit ich meine Zeit nicht mit solchen Offtopic Diskussionen verschwende.
 
Zuletzt bearbeitet:
AnotherWorld schrieb:
Nur mal so eine Frage am Rande, warum könnt ihr nicht "Erträge" anstatt "Yields" schreiben?
Erträge? Das hört sich so an wie wenn man die Ernte einfährt.
Würde "Erfolgsquote" nicht besser auf Yield zutreffen? Es muss zwar nicht zwingend ein Anteil sein aber meist wird es so verwendet und nicht in Absoluten.

P.S
Hier gehts ja hoch her. Richtiger Krieg.
 
oldmanhunting schrieb:
Frage mich was die News mir sagen soll?

Die Frage ist ganz einfach beantwortet. AMD wollte aufzeigen dass die Entwicklung solch einer Technik nicht von heut auf morgen passiert. Das wird hier ja im Forum gern geglaubt. Da hat man genug gelesen, dass sich AMD schnell mal in HBM eingekauft hat ect.
Man bedenke, dass solche kompakten Karten theoretisch schon bei der HD 3000 möglich waren, wobei der GDDR3 sicherlich zu langsam und wirtschaftlich nicht rentabel.

dann muß da am Schluß etwas richtig Gutes dabei raus kommen oder man ist Pleite.
Es ist was gutes ausgekommen, denn es wird offensichtlich für die nächste Zeit bei vielen Anbieter zum Standard. Da hat man sich durchaus gegenüber anderen Techniken durchgesetzt, sonst würde Samsung jetzt nicht verstärkt auch HBM produzieren wollen.
 
Zuletzt bearbeitet:
pipip schrieb:
Die Frage ist ganz einfach beantwortet. AMD wollte aufzeigen dass die Entwicklung solch einer Technik nicht von heut auf morgen passiert. Das wird hier ja im Forum gern geglaubt. Da hat man genug gelesen, dass sich AMD schnell mal in HBM eingekauft hat ect.
Man bedenke, dass solche kompakten Karten theoretisch schon bei der HD 3000 möglich waren, wobei der GDDR3 sicherlich zu langsam und wirtschaftlich nicht rentabel.


Es ist was gutes ausgekommen, denn es wird offensichtlich für die nächste Zeit bei vielen Anbieter zum Standard. Da hat man sich durchaus gegenüber anderen Techniken durchgesetzt, sonst würde Samsung jetzt nicht verstärkt auch HBM produzieren wollen.

Was nützt das AMD das das bei anderen zum Standard wird?
Es muss ein AMD Endprodukt rauskommen das am Markt erfolgreich ist oder ein Patent das erfolgreich lizensiert wird.
Es bringt AMD aber nichts wenn sie eine Technik 8 Jahre studieren und am Ende nutzen es alle anderen und machen damit Geld nur AMD nicht.
 
Zum einen haben sie einen Zeitvorteil bei der Entwicklung, zum anderen scheinen sie nach der Gerüchteküche der bevorzugte Abnehmer zu sein, was natürlich Gold wert ist wenn die Produktionskapazitäten für den Speicher erst noch aufgebaut werden müssen.

Reicht dir das?
 
PiPaPa schrieb:
Was war denn die große Kunst von nvidia bisher? Architektonisch haben sie es geschafft die DP Einheiten rauszuwerfen, und im BIOS jede Menge Speedsteps einzuprogrammieren. A

öhm. Insgesamt ist das deutlich größere Kunst als das was AMD mit HBM bisher zeigt... Nvidia hat da gespart wo es keinen trifft, AMD übrigens bei Fiji mit DP auch. GM200 ist kein DP Computing Chip.
Alles richtig gemacht haben sie hier, Effizienz erhöht, DP für wichtige Gamingleistung reduziert. Genau das was dem Anwender am Herzen liegt... offensichtlich. Und das auch noch sehr günstig mit GDDR5 umgesetzt.

Frag dich nicht was Nvidia großes gezeigt hat, frag dich eher was aus wirtschaftlicher Sicht schlauer war. Sogar für den Zielgruppen Konsument ist das was Nvidia hier auf den Markt geworfen hat klar besser.

Was schert mich ob da HBM oder GDDR5 drin ist. Was schert mich oder der Gamer um die Ecke DP Leistung? Nvidia bietet mehr Leistung, höhere Taktraten, höhere Effizienz und deutlich höhere Marge genau aus diesen von dir genannten Änderungen, die dem Gamer zugute kommen. DP Leistung sparen, Effizienz erhöhen. Nebenbei hat man auch wichtige Consumer Dinge wie DP und HDMI 2.0 in den Standard gepackt.
Das Gesamtpaket stimmt. Nicht zuletzt genau weil Nvidia hier wie gesagt viel mehr richtig gemacht hat als AMD mit Fiji. Fiji wäre eben mit weniger DP Leistung zugunsten der Gaming Leistung und HBM 2.0 das deutlich rundere Produkt.

Was richtig ist ist sicher der Weg den AMD mit HBM geht. Keine Frage. Das steht aber auf ganz anderem Papier und bisher hat AMD genau 0 Vorteile daraus ziehen können, von 15cm langen Power Karten mal abgesehen.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
öhm. Insgesamt ist das deutlich größere Kunst als das was AMD mit HBM bisher zeigt... Nvidia hat da gespart wo es keinen trifft, AMD übrigens bei Fiji mit DP auch. GM200 ist kein DP Computing Chip.
Alles richtig gemacht haben sie hier, Effizienz erhöht, DP für wichtige Gamingleistung reduziert. Genau das was dem Anwender am Herzen liegt... offensichtlich. Und das auch noch sehr günstig mit GDDR5 umgesetzt.

Frag dich nicht was Nvidia großes gezeigt hat, frag dich eher was aus wirtschaftlicher Sicht schlauer war. Sogar für den Zielgruppen Konsument ist das was Nvidia hier auf den Markt geworfen hat klar besser.

Der Chip ist wegen der mangelhaften DP Leistung für den professionellen Bereich nahezu unbrauchbar, also genau den Bereich für den die großen GPUs bisher entwickelt wurden und wo sie mit Sicherheit auch gut Geld verdient haben. Das bezeichnest du als "alles richtig gemacht"?
Mich würde es eher interessieren ob sie mit den nicht gerade absatzstarken bereich für solche kostenintensiven Desktop Karten die Entwicklungskosten für den Chip wieder raus bekommen.
 
Zurück
Oben