News AMD holt sich Verstärkung für „Mantle“ ins Boot

calluna schrieb:
@Aylano
Und? Nach dieser "Logik" hat AMD auch keine echte CPU, wird niemals echtes AVX haben etc. Ich finde so eine Aussage unsinnig. Zwischen Patenten und der Realisierung liegt viel Arbeit. So zu reden finde ich eher kindisch. Es wird doch wohl möglich sein, die Technik losgelöst von irgendwelchen emotionalen Bindungen an Firmen betrachten zu können.
Kindisch ist es, wenn Leute Mantle-Bashing betreiben und jetzt ander Leute emotional & negativ bewerten, nachdem Mantle sogar in kürzerster Zeit erste Früchte zeigte.
Die Logik musst du nicht verstehen. Die Logik hatten viele damals beim AMD-Konsolen-Margen-Bashing und bisherigen Mantle-Bashing auch nicht verstanden.

Da du dich erst 2010 angemeldet hast, hast du leider nicht mitbekommen, wie Intel mit ihrer eigenen Grafikkarte a la Larrabee 2009 & 2010 versagt hatten, bis sie Larrabee als Grafikkarte entgültig aufgaben. Und von dem Jahrelangen Dilemma mit DX10-Treiber davor wirst du wohl erst recht nichts mitbekommen haben.
DX11 kam wie ein Wunder und sowohl Hardware wie Treibermäßig ausgereift und was gleichzeitig (und nicht Jahre später oder garnicht) auf dem Markt kam, während 5-6 Jahre davor mit Larrabee & DX10-Treiber @ Core sowie den Atom-iGPU-Treiber extrem viel schief gegangen ist.

Bevor du dich jetzt weiter in eine sinnlose Diskussion verkrämpfts, musst du bedenken, dass es um die Frage ging, wo der Anreiz ist, dass einige Hersteller Mantle statt DX11 verwenden. Und das liegt eben an den APUs die eine ausgereifte & verlässige Technik & Treiber haben, während Intel nicht der Typische Grafikkarten-Hersteller & Partner ist und Nvidia den Nachteil des nichtvorhandenen APU bzw. CPU-Marktes hat.
Also, die Gründe bzw. Anreize sind auch abseits des Konsolen-Grund da.

Ich kann nochmal für dich betonen.
Ich würde mich mit großartigen Sprüchen gegen Mantle zurückhalten, bevor wir noch nicht mal wissen, was Mantle genau ist, und wie groß das Potential ist.
Wobei man eigentlich auf Kaveri-Ergebnisse warten sollte, der eben die APU zum spieletauglichen Notebook machen kann und so einen neuen Spiele-Markt schaffen kann. AMD hingegen kann die Spiele-Entwickler jetzt schon mit Kaveri-Ergebnisse überzeugen, vondem wir erst in einigen Monaten erfahren werden.;)
 
Zuletzt bearbeitet:
Kobe24T schrieb:
Typisches Neider Geschwätz...
Ich als "Nvidia-Jünger" hoffe darauf dass Mantle richtig was rausreißt...damit sich im GPU-Markt endlich was tut....ich hab zwar meine 100+fps auf Ultra aber womöglich zieht Nvidia mit irgendwas nach, am besten wäre natürlich neue Karten für wenig Geld, man darf ja träumen.

Genau das!
Auch ich fühle mich die letzten Jahre eher bei grün heimisch seit rot die Strategie geändert hat aber trotzdem hoffe ich das mantle ein Erfolg wird. Wir haben schon viel zu lange Stillstand im Grafikmarkt und wenn mantle ein Erfolg wird dann kann Nvidia auch nicht so wie es atm der Fall ist Technik zurück halten weil sie nicht gebraucht wird. Ich vermute Nvidia wird wenn es ein Erfolg wird mit was ähnlichem kommen mit ähnlich griffigem Marken Namen und hoffentlich hatten wir dadurch dann einen Sprung in der Leistung der schon so lange fällig ist.


xxxx schrieb:
@PropHunt die 30% sind gar nicht unrealistisch ich mag nur an 3dfx Glide erinnern wenn ein Spiel die Api genutzt hat haben alle anderen Karten daneben blass ausgesehen.

Damals waren aber die Voraussetzungen völlig andere als heute!
Damals gab es kein DX oder es war die Zeit wo DX unbedeutend war, 3D Grafik steckte in den Kinderschuhen und demnach gab es extremes Optimierungspotential. Heute haben wir außerhalb von mehr horsepower wenig Möglichkeiten solche Sprünge zu erreichen wie es damals möglich war. Es wäre toll wenn es so kommt denn eigentlich bräuchten wir noch viel mehr Leistung um endlich Standards > Full HD und SSAA zu ermöglichen, solange aber die Leistung im Mittel (nicht an der Spitze!) nicht ausreicht wird SSAA kein Standard werden da es sich nicht lohnt für 3% der user zu entwickeln.

john carmack schrieb:
HEHE - Genau!
AMD´s Mantle gibt es praktisch kostenlos und Nvidias neue Karten kosten dann 600€ +

Naja, was solls...
Navidias Marketing hat seine Anhänger schon soweit konditioniert das es wohl auch keinen Unterschied mehr macht.
Anstadt einfach mal etwas über den Tellerrand hinaus zu schauen.

Nvidia hat seine Anhänger so konditioniert das sie AMD mit mantle Erfolg wünschen?!
Vielleicht solltest du bei Nvidia anrufen und sie darauf hinweisen das ihre Konditionierung eher schlecht für Nvidia läuft! ^^
Fantom schrieb:
peinlich wird es wenn nvidia es trotzdem schafft schneller zu werden

Nicht wirklich denn es kommt auf die Ausgangsituation an.
Es sollte sich ja schön langsam rumgesprochen haben das es ein a = besser und b = schlechter in der IT nicht gibt sondern es immer auf spezifische genau definierte Testparameter ankommt ob mal a oder mal b besser wird. Deshalb wird es genauso wie heute games geben die auf rot besser laufen und welche die auf grün besser laufen.
 
Wie sieht das eigentlich bei den CPUs aus? Profitieren AMD CPUs auch von Mantle oder nur die Graka? D.h. ist es egal ob ich eine Intel oder AMD CPU habe, solange ich eine GCN Karte habe?
 
Ich fand die Aussage mit den über 30 % Leistungssteigerung durch Mantle interessant. Was wäre, wenn die Namensgebung der aktuellen AMD-Karten nicht ganz zufällig ist und tatsächlich über 30 % herausspringen?

AMD R9 280X = NVIDIA GTX 780
AMD R9 270X = NVIDIA GTX 770

https://www.computerbase.de/artikel/grafikkarten/amd-radeon-r9-290x-test.2263/seite-5

Nur die R7 260X würde nicht ins Bild passen, da die GTX 760 um 55 % schneller ist.

Spekulatius, Spekulatius. :D


MfG 655321
 
Zuletzt bearbeitet:
ToniMacaroni schrieb:
Profitieren AMD CPUs auch von Mantle oder nur die Graka?

So wie ich das verstanden hab sollen allgemein Multicore-CPUs davon profitieren. Ein Feld in dem AMD momentan Vorteile hat, aber ein Intel mit entsprechend viel Kernen profitiert genauso.
 
Glaube auch wird 10-20% bringen, nicht mehr. Sonst würde doch noch ein viel grösserer Wirbel drum gemacht werden. 10-20% ist in der heutigen Welt ja auch viel. 10-20% in 2, 3 Spielen, und AMD ist mit einer ansonsten langsameren Karte im Performancerating wieder vorne.
 
na dann bin ich ja mal gespannt ob sich das wirklich durchsetzten tut... :cool_alt:

in diesem sinne...zieh ich mir jetzt auch mein mantel an :D
 
Aylano schrieb:
Da du dich erst 2010 angemeldet hast, hast du leider nicht mitbekommen, wie Intel mit ihrer eigenen Grafikkarte a la Larrabee 2009 & 2010 versagt hatten...

Interessant... du glaubst doch nicht ernsthaft, dass man bei Computerbase angemeldet sein muss, um über solche Dinge informiert zu sein? Ich hatte eine Voodoo 1 und hab auch damals schon für diese Karte programmiert.
Jedenfalls: Du erkennst bei mir ein "Mantle-Bashing", wo überhaupt keines ist, nur weil eine kritische Frage gestellt wird.

Und was Larrabee betrifft... das wird uns in vielen Jahren erneut begegnen, wenn genügend Rechenleistung für Ray-Tracing vorhanden ist. Das Projekt war einfach etwas zu ambitioniert für die jetzige Zeit.
 
Zuletzt bearbeitet:
calluna schrieb:
Interessant... du glaubst doch nicht ernsthaft, dass man bei Computerbase angemeldet sein muss, um über solche Dinge informiert zu sein? Ich hatte eine Voodoo 1 und hab auch damals schon für diese Karte programmiert.
Jedenfalls: Du erkennst bei mir ein "Mantle-Bashing", wo überhaupt keines ist, nur weil eine kritische Frage gestellt wird.
Wir wissen ja, dass du so ein toller Experte bist, aber blöderweise wieder dem wichtigen Punkt völlig aus dem Weg gehst, dass Intel jahrelange ein Trauerspiel um Grafik-Treiber hatte und jahrlange mit ihrer Grafikkarte versagten und Plötzlich wie durch ein Wunder auf einmal alles richtig machte.

Und was Larrabee betrifft... das wird uns in vielen Jahren erneut begegnen, wenn genügend Rechenleistung für Ray-Tracing vorhanden ist. Das Projekt war einfach etwas zu ambitioniert für die jetzige Zeit.
Ja eh, irgendwann wird Larrabee schon im Grafik-markt greifen.
Genauso wie Atom ja auch irgendwann bzw. 5 Jahre später dann endlich den Tablet & Smartphone-Markt traf.
Andererseits hat Intel Ive-Bridge sowohl in Hardware als auch Software punktgenau (also Plus-Minus 1 Monat) enwickelt werden, während Intel bei ihren anderen Entwicklungen völlig danebenentwickelt.
Schließlich gibts mit WiMax & Flash-Beschleunigungen sowie Itanium & Netburst & Co noch etliche Architekturen & Techniken, die völlig daneben gingen.

Nachdem sich AMD jetzt mit vielen neuen Architekturen (APU & Bobcat & Bulldozer & ARM-A5x) schon in fast allen Märkten verbreitet hat, würde Intel jetzt bei Fehlentwicklungen abgestraft werden.

Tatsache ist, dass AMD jetzt in kurzer Zeit neue Mantle-Partner gefunden hat, Intel & Nvidia momentan da nichts entgegen bringen kann.
Und während TressFX vor paar Quartalen noch kleingeredet wurde, kommt AMD schon mit TressFX 2.0.
Mit True-Audio & Eyefinity & HD3D bringt AMD grundsätzlich ein Interessantes Paket.

Es ist schön, dass Intel bei iGPUs deutlich aufgeholt hat, aber eben viel zu spät. Heute es eben schon wieder mehr Nötig, als nur GPU-Performance zu bringen. In der Zeit, wo Intel in der GPU-Performance den großen Rückstand aufgeholt hat, hat eben die Konkurrenz woanders weitergearbeitet.
 
Ich habe die Ganze Mantel gedöhns gerade echt nicht Verstanden, Im grunde geht es also darum DX zu umgehen und somit ne Bessere FPS zu ermöglichen? DX ist doch aber für jedes Spiel "pflicht" oder sehen ich das falsch? Und was ist wen NV sagt sie wollen den freien Quelcode nicht verwenden und fummeln nen eigenes Ding zusammen? Bedeutet das dann unterm Strich das wir auf dem PC so ein Triple A Tite Teilung haben wie z.b. beim Konsolen markt? (Also Verschiedene Spiele nur für PS4 oder Xbox1(GT6 zb))

Fals ich ich nicht irre würde ich AMD gerne ins esicht Tretten wollen. Liege ich falsch mag ich sie gerne Knuddeln XD
 
@Aylano

Heute es eben schon wieder mehr Nötig, als nur GPU-Performance zu bringen.

Und was ist mehr nötig für z.B. ein Business-Notebook? Oder Multimediagerät?

Und ich gehe überhaupt keinem Punkt aus dem Weg. Meine Frage war, welche möglichen Beschränkungen man sich durch so eine hardwarenähere API bezüglich zukünftiger Architekturen auferlegt. Was du über Intel sagst, werde ich ignorieren, da es einfach nicht möglich ist, sich vernünftig mit dir darüber zu unterhalten. Ich habe es dir schon einmal gesagt, mich interessiert nur die Technik, unabhängig von einem Unternehmen. Zum Beispiel Itanium... rein aus technischer Sicht, wie beurteilst du diesen Versuch? Das gleiche mit Larrabee, oder AVX3.2 (die Alternative zu HSA).

Du solltest dich von diesem Intel vs AMD vs Nvidia lösen. Ich habe eine APU.
 
Zuletzt bearbeitet:
modena.ch schrieb:
So ein Quatsch!

Da die Entwickler die meisten Games für die Konsolen designen und diese in der
nächsten Generation auf GCN setzen ist AMD gut beraten nur GCN mit Mantle zu
unterstützen.

Für die Konsolen wird sowieso "to the Metal" programmiert.
Es geht da nicht anders als die vorhandenen Low Level APIS zu verwenden, weil es aufgrund
gewisser Grenzen bei CPU und GPU optimiert werden muss und man schlicht mehr rausholen
kann.

Was spricht also dagegen die GCN LL Optimierungen der Konsolen, welche sowieso
vorgenommen werden, per Mantle auf den PC zu übertragen?
Und wenn dann noch Games direkt für Mantle entwickelt werden umso besser.

Mantle soll relativ ähnlich zu handhaben sein und auch eine gewisse Verwandschaft zu DX besitzen
und die One benutzt ja sogar eine DX Abwandlung.

Für VLIW gehen solche LL Optimierungen nicht realistischer Weise.
Für diese Chips müsste das Game von Anfang an für VLIW desingt sein.
Und dann optimiert man für VLIW4 oder VLIW5?
Das tut sich keiner an bei der begrenzten Anzahl von Kunden und dem Aufwand....

also doch unwillen seitens von amd, danke für die bestätigung.
 
Ging es nicht ursprünglich darum, durch die Ansprache der Hardware im Lowlevel den Overhead zu verringern und durch mehr GPU-Computing die CPUs zu entlasten?

Wenn das noch immer gilt, wie soll man dann allgemeine Prozentzahlen für Leistungssteigerungen nennen können? Hängt doch vom System und vor allem von der Software ab. BF4 scheint mir doch jetzt schon in der gängigen Konfiguration total GPU-limitiert zu sein. Was brächte da wohl eine Entlastung eines Vierkerners zu Lasten der GPU???

Naja, die Gerüchteküche kommt ja nicht durch AMD, sondern die Community. Macht ja Spaß, die Kaffeesatzleserei. Aber vielleicht mal auf dem Teppich bleiben.
 
LinuxMcBook schrieb:
So wie DSL oder Porsche?
DSL steht doch jedem zur Verfügung wo das Netz ausgebaut worden ist. Porsche jedem mit dem entsprechenden Geldbeutel. Das sind wirklich keine Argumente.

Übrigens halte ich es für ziemlich krank wie hier wieder die Markentreue zelebriert wird. Es ist noch nicht mal bekannt was Mantle tatsächlich bringt, aber auch völlig gleich. Wer den Markt so separieren will hat sowieso den Schuss noch nicht gehört. Aber AMD war ja immer groß mit Worten.
 
Regenwürmer schrieb:
Ich find einfach.. Wenn AMD schon damit bewirbt, dass andere Hersteller den Sourcecode von Mantle nehmen können und diesen an deren Hardware anpassen dürfen, dann sollte AMD den Support von Mantle auf deren eigenen Karten, die den älteren VLIW Architektur verwenden, erweitern. Das sollte ja ohne weiteres möglich sein. Dies würde auch die Offenheit von Mantle bestätigen können.

Wie weit nach unten möchtest du denn gehen? ;) Die 7000er sind seit 1 1/2 Jahren verfügbar, IMHO ist es ziemlich Schwachsinn da noch Support für den Vorgänger zu bieten. Bei 90% der User werden diese Karten in den nächsten 2 Jahren ersetzt werden, wie viele Spiele in 2 Jahren Mantle unterstützen bleibt abzuwarten. IMHO kommen in den nächsten 12 Monaten vielleicht 2 oder 3 Blockbuster mit Support, die üblichen Verdächtigen reichen vielleicht noch einen Patch nach. Wenn du da bei 10-15 Spielen bist ist es IMHO schon viel gerechnet.

Bis das richtig anläuft und breiter Support da ist sind die Mittelklasse 6000er mit Mantle oder ohne nur noch für heruntergeschraubte Details zu nutzen (und wenn der erste Ansturm ersteinmal vorbei ist baut AMD den Support vielleicht noch nachträglich ein, wer weiß?).
 
PhilAd schrieb:
Aktuell versucht es Intel mit Cannonical indem sie die Weiterentwicklung für XMir gestoppt haben, um ihr eigenes Projekt Wayland besser zu positionieren. Die Community ist auch hier auf der Seite von Intel und es ist schade, dass man nicht mehrere Lösungsansätze akzeptiert und schaut, welche später technisch besser darsteht.
Bevor du Behauptungen aufstellst, solltest du dich etwas informieren.

Wayland war lange vor dem Display-Server Mir vorhanden. XMir ist die Komponente, die als Schnittstelle für X11/X Window System dient. Mir soll X-Server ersetzten, damit X Window System Software läuft, soll XMir die Kommunikation zwischen Mir und entsprechend X11 übernehmen.

Zudem wurde das Wayland Projekt wesentlich früher gestartet und Cannonical hat vorher großartig angekündigt auf Wayland zusetzten und dann plötzlich ihr eigenes Süppchen gekocht und Aussagen von 2010 erst mal wieder nichtig sind. Cannonical hat mit dieser Entscheidung im übrigen nicht nur Intel vor den Kopf gestoßen, sondern auch viele weitere OpenSource-Entwickler in der Linux Gemeinde. Die ganze Thematik ist wesentlich komplexer, als du sie hier darstellst und du verfälscht sie, in dem du Cannocial hier als den guten Underdog hinstellst, der sich gegen Intel verteidigen muss. Cannonical ist nur nicht der guten OpenSource Underdog!

Ich habe auch Linux-Systeme mit ATI-Karten hier gesehen, die gut laufen und nVidia-Systeme die mehr recht als schlecht laufen.
 
@PhilAd
Naja, Ubuntu kann man als OSS User mittlerweile vergessen. Würde sagen mit der Unity-Einführung musste man sich nach Alternativen umschauen. Wie krank ist das denn bitte, dass wenn man was im Suchfeld sucht, Dinge zum kauf angeboten bekommt? Das hat noch nicht mal Windows (zumindest 7 und davor nicht, 8 kA). Und jetzt noch die Kooperation mit Intel.. dafuq.

@Cat
Ja genau und PhysX ist der Heilbringer :lol:
 
Teralios schrieb:
Bevor du Behauptungen aufstellst, solltest du dich etwas informieren.
...

Das sind leider keine Behauptungen. Du darfst selbst Google bemühen und Dich informieren.
Anerkannte Graka-Treiber Entwickler wie Luc Verhaegen bemängeln diese Probleme schon seit langem.
Die Story die du hier auftischst ändert daran garnichts. Ich hätte natürlich über beide Seiten schreiben können. Dies tut aber überhaupt nicht zur Sache und dein Beitrag hat damit auch nichts zu tun. Das Verhalten Cannonicals wollte ich damit in keinem Fall billigen oder überhaupt anderweitig bewerten, da man das in der Thematik außen vor lassen kann.
Cannonical hat keine weiße Weste. Das ist mir und durch die Presse jedem anderen Bewusst. Schon damals hat man sie kritisiert, dass sie nur einseitig von der Community profitieren und kaum etwas zurück geben und weiterhin ist es aufgrund ihres Lizenzmodells sicher nicht als merkwürdig anzusehen, dass Cannonical trotz so einer großen Reichweite an Nutzern selbst eine vergleichsweise kleine Community an Entwicklern hat.
Die Schuld - die man aktuell aber gerne vollkommen einseitig bei Cannonical sucht und gerade zu Hetzkampagnen führt - gibt man aktuell nur einem. Sie sind nicht unschuldig, aber die OpenSource Gemeinde bekleckert sich nicht mit Ruhm und das haben sie bezüglich des Topics schon damals bei AMD nicht. Wenn Stimmen aus den eigenen Kreisen laut werden und Probleme aufzeigen, sollte man mal zumidnest darüber nachdenken. Und Cannonicals Verhalten macht das von Intel nicht besser. Natürlich kann man sich anders entscheiden. Es sollte gut sein, dass man nach mehreren Alternativen sucht. Am Ende stehen trotz solcher Verhaltensweisen die Chancen gut, dass sich die technisch bessere Lösung durchsetzen wird. Im proprietären Bereich hätte Intel mit so einem Verhalten eine Marktverzerrung bereits erreicht.
 
Zurück
Oben