News AMD-CEO kritisiert Nvidias x86-Prozessor-Pläne

Ganz unrecht hat Hr Meyer nicht, denn eine x86 Entwicklung kostet erstmal Zeit, Geld und momentan hat NVidia weder Zeit (ATI scheint eine Nasenlänge vorn zu liegen; Intel sperrt NVidia aus, usw.) noch Geld (Umsatz und Gewinn geht runter, die GTX260 ist ein Verlustgeschäft)

Mit einem ARM Design kann man schon jetzt Dualcore SoCs für Netbooks/-tops und den embedded Markt anbieten. Da gibt es zwar auch Konkurrenten (OMAP, Snapdragon und iMX5), aber die haben sich auf den Handymarkt spezialisiert und versuchen gerade in den Netbookmarkt einzusteigen. NVidia hätte da die bessere Grafiklösung und müßte auch nicht extra eine Lizenz wie bei x86 erwerben (Tegra läuft ja bereits auf ARM Basis).

Zwar wäre man mit ARM nicht x86 kompatibel, aber wenn man damit genauso surfen, Briefe/e-mails schreiben und Videos schauen oder Musik hören kann, dürfte das die Kunden kaum interessieren, zumal man mit ARM Technik eine längere Laufzeit rauskitzeln könnte.
Vielleicht versucht sich NVidia ja auch an einer x86 Emulation auf ARM/GPU Basis, dann müsste man nichtmal auf Windows verzichten. ;)
 
BEnBArka schrieb:
Ich finde es gut, eventuell haben wir in 5-6 Jahren einen dritten Player der nicht nur Low-End sondern auch High-End Produkte für CPU's anbietet.
Nvidia strebt keine Performance-CPUs an, sondern sowas wie den Intel Atom. Die Ion-Plattform der übernächsten Generation soll von der hauseignenen x86-Generation befeuert werden.
 
Die Ion-Plattform der übernächsten Generation soll von der hauseignenen x86-Generation befeuert werden.

Und das ist auch gut so. Intel hat sich mit dem Atom meiner Meinung nach nicht mit Ruhm bekleckert. Da Via auch nichts auf die Reihe bekommt und AMD sowieso nicht, wird es Zeit, das sich gerade in dem Segment was tut. Ich finde diesen Schritt äusserst begrüßenswert.
 
Vielleicht hat AMD auch schon die Sorgen von Intel übernommen.

Intels sorgen sind ja, wenn wir AMD pleite gehen lassen, dann haben wir ein Monopol und die Wettbewerbshüter werden uns jeden Preis vorschreiben.

Wenn sich AMD denkt, Nvidia fährt sich mit diese Idee nur noch schneller gegen die Wand, so dass nur noch ATI übrig bleibt, dann hätten sie ein recht großes Interesse daran Nvidia nicht so schnell gegen die Wand fahren zu lassen. :D
Wenn es Nvidia ernst ist, dann sollten sie ein Joint Venture mit Via oder Apple eingehen. Bezahlen könnten sie indem sie Aktien tauschen.
Dazu brauchen sie erstmal kein Geld.
 
vielleicht gibts ja bald NVidia systeme, die nur auf grafikchips setzen ^^

weil wie wir wissen, hat ein grafikchip die 2,5 fache leistung einess Quad Prozessors ;)
 
CHAOSMAYHEMSOAP schrieb:
Ganz unrecht hat Hr Meyer nicht, denn eine x86 Entwicklung kostet erstmal Zeit, Geld und momentan hat NVidia weder Zeit (ATI scheint eine Nasenlänge vorn zu liegen; Intel sperrt NVidia aus, usw.) noch Geld (Umsatz und Gewinn geht runter, die GTX260 ist ein Verlustgeschäft)

Herr Meyer kennt ganz gewiß die interne Situation _des_ schärfsten Konkurrenten im Bereich Graphikkarten? Wenn diese Frage mit 'JA' beantwortet wird, würde ich mich doch sehr für die Informationsquelle interessieren. Herr Meyer wird garantiert NICHT Fürsprecher nVidias! Unter dieser Prämisse darf sein Kommentar als purer Unfug gewertet werden.

Mit einem ARM Design kann man schon jetzt Dualcore SoCs für Netbooks/-tops und den embedded Markt anbieten. Da gibt es zwar auch Konkurrenten (OMAP, Snapdragon und iMX5), aber die haben sich auf den Handymarkt spezialisiert und versuchen gerade in den Netbookmarkt einzusteigen. NVidia hätte da die bessere Grafiklösung und müßte auch nicht extra eine Lizenz wie bei x86 erwerben (Tegra läuft ja bereits auf ARM Basis).

Ein erheblicher Anteil moderner Prozessorarchitekturen lebt bzw. lebte von der Wiederverwertung Innovationen anderer - siehe AMD (DEC Alpha), Intel (Itanium,HTT etc, auch DEC Alpha). Auch AMD begann mit scharf kritisiertem Nachbau der seinerzeit schon in die große Sackgasse rauschenden x86-'Architektur'.

nVidia wird sich den Schritt, einen Kommentar hierzu in die Öffentlichkeit zu schicken, sehr wohl überlegt haben, immerhin darf man erwarten, daß dem Unternehmen einige denkfähige Köpfe vorstehen, die ihr Wissen und Kenntnisse nicht aus Wikipedia oder Frikkel-Foren beziehen.

Punkten kann man, meiner bescheidenen Meinung gemäß, nur noch mit Energiesparsystemen, die hochintegriert sind oder hybridisierten Systemen, die GPGPU im Fokus haben. nVidia baut Chipsätze und Graphikchips, jetzt auf den Zug aufspringen, der deutlich in Richtung Graphik-Spar-Chipsatz-Generalisten geht, ist eine kluge Entscheidung.

Zwar wäre man mit ARM nicht x86 kompatibel, aber wenn man damit genauso surfen, Briefe/e-mails schreiben und Videos schauen oder Musik hören kann, dürfte das die Kunden kaum interessieren, zumal man mit ARM Technik eine längere Laufzeit rauskitzeln könnte.
Vielleicht versucht sich NVidia ja auch an einer x86 Emulation auf ARM/GPU Basis, dann müsste man nichtmal auf Windows verzichten. ;)

Die ARM Architektur hat eine lange Tradition, in der Form, wie sie heute bekannt ist, kam sie Ende der 80iger als 'Archimedes' zum Kunden. Seinerzeit war der 'Embedded Chipsatz' noch auf einige Einzelbausteine verteilt, was heute komplett auf einem Siliziumplättchen verschwindet. Die ARM Technik ist gewiß auf 'günstig' getrimmt, hätte aber durchaus Potential, als Wiedergeburt der RISC Ära mit einer Kaskade von RISC-Kernen für Furore zu sorgen

Auf den Alpha AXP Systemen hat man Dank eines Wintel-Emulators auch nicht auf Windows verzichten müssen. Was vor 15 Jahren noch behäbig daherkam, dürfte heutzutage sehr viel effizienter zu realisieren sein, wenn man eine vernünftige CPU hätte. Was den x86-Intel-Schrott noch immer am Leben hält, ist das fast nicht aufzubrechende Monopol Intel-Windows. Windows bevorzugt x86, somit hat x86 eine Überlebensberechtigung. Technisch gesehen ist das, was heute als Core-i7 vorliegt, ein Wolkenkratzer, der auf dem Fundament einer schäbigen Slumhütte hochgezogen wurde.
Als Bill Gates den 'Papierkorb' in Wondows unter schäumenden Champagnergläsern der 'mündigen' und nicht minder tumben Weltöffentlichkeit vorstellte, das war 1995, hatte diese 'Öffentlichkeit' wohl schon vergessen, daß Apple und in Folge Next diese Innovation schon längst zu einem Standard gemacht hatten - de facto. Heute erklärt Intel uns eine 'Innovation', die es in zukünftigen FPUs der Sandy-Bridge Architekturen der FPU ermöglichen soll, zwei Operanden aus zwei unabhängigen Quellen zu verknüpfen und das Ergebnis auf eine dritte unabhängige Zieladresse schreiben zu können. Ich frage mich, ob man Alpha oder AltiVec der PPC vergessen hat?

Damit es nicht ganz OT wird: Meine Einschätzung ist, daß gerade Hersteller wie nVidia, aber auch ATI/AMD, eben durch ihre Vorteile im Bereich der GPU-Entwicklung einen großen Vorteil gegenüber Intel haben, wenn sich in Zukunft eine Hybridisierung/Einbettung von Fließkommarechen-Clustern als FPU-Ersatzim herkömmlichen Sinne als Weg erweisen würde. Das wird vermutlich erst in 2 - 5 Jahren der Fall sein, die Weichen aber werden heute gestellt. Insofern erscheint Herr Meyers Kommentar als der eines Mannes, der die Hosen voll hat ;-)
 
gruffi schrieb:
Also dass nVidia noch sonderlich viel Cash hat, halte ich für ein Gerücht. Erst recht, wenn die nächsten Quartale wie bisher weiterlaufen. Da ist AMD durch den Investor und besseren Produkten mittlerweile deutlich besser aufgestellt. Das ist hier aber nicht das Thema.

Ich weiß wirklich nicht, wie du auf deine Phantasietrends und -finanzen kommst.

Zum Thema Marktanteil & Trend:
http://www.hartware.de/news_46290.html
Der Trend ist bei nV besser, als bei den anderen. Marktanteile völlig ok. Sicher auch, weil in Apples jetzt nVidia drin steckt.

Zum Thema Finanzen:
https://www.computerbase.de/news/wirtschaft/nvidia-vermeldet-quartalsverlust.22598/
Das sind nur ein paar Jahre. Die Gewinne über die ganzen Quartale sind enorm. Und die jetzigen Umsatz/Gewinnrückgänge betreffen die ganze Branche, nicht nur nV.

Du scheinst nicht zu verstehen, dass Yukon eine Plattform ist, keine einzelne Komponente. Und die wird natürlich weiterentwickelt. Sogar recht kurzfristig. Und nein, AMD behauptet nichts anderes.

Atom und Ion wird auch weiterentwickelt. Und in seiner jetzigen Form ist Yukon aufgrund des Strombedarfs eine ganz andere Produktgruppe, als Atom. In dem Bereich schlägt man sich ja schon fast mit Intels ULV Prozessoren.

Als ob eine kleine mobile HD 3xxx viel Leistung benötigen würde. :rolleyes: Ich bin mir zwar nicht 100%ig sicher, aber die integrierte Grafikeinheit dürfte auch schon HD fähig sein. Spielt auch keine Rolle. Als Gesamtpaket ist Yukon ziemlich leistungsfähig und dazu noch sehr sparsam. Auch im Bereich der ultramobilen Geräte.

Du bist dir nicht sicher, das wundert mich nicht. Die meisten Schüsse kommen bei dir eher aus der Hüfte.

Der M690T + Athlon Neo (derzeitigen Yukon- Systeme) ist nicht BR-tauglich, siehe:
https://www.computerbase.de/artikel...st.657/seite-11#abschnitt_hdtvwiedergabe_h264
Hier langt es gerade so, aber es wird ein X2 3800+ verwendet.

Eine Radeon Mobility 3410 nimmt imho rund 10W. Plus M690T und Athlon Neo ergibt das einen deutlich höheren Strombedarf, als z.B. Ion. Im Niedrigenergiesektor ist jedes gesparte Watt Gold wert.

Ja, Yukon ist tatsächlich nicht schlecht, aber in der jetzigen Form nur halb gewollt und halb gekonnt. Mit 780G Chipsatz wäre Yukon wirklich überzeugend. In Kombination mit dem M690T überzeugt sie mich weniger, als Ion.

----

Ansonsten kann ich mir nur CHAOSMAYHEMSOAP anschließen. x86 Emulation wäre auch eine Möglichkeit. Und es ist nun auch nicht so, als ob bei nVidia absolute Anfänger arbeiten. Die entwickeln seit 10 Jahren erfolgreich GPUs. Haben jetzt Erfahrung mit ARM. Dies mag nicht ganz das gleiche sein, wie x86 CPUs. Aber dieses KnowHow wird ihnen sicher weiter helfen.
 
Zuletzt bearbeitet:
Time_Me schrieb:
Wer hier über eine Übernahme VIAs durch Nvidia redet sollte sich mal informieren zu wem VIA überhaupt gehört ;)


Ähm VIA gehört zu VIA :rolleyes:
wobei VIA für "Very Innovative Architecture" steht. ;)

der vollständige Unternehmensname ist: VIA Technology.

dazu zählen folgende Tochterunternehmen:

Centaur Technology (CPUs)
S3 Graphics (Grafikchips)
IC Ensemble (Soundchips)
VIA Embedded Solutions Division (EPIA-Plattform etc.)
VIA Networking Technologies (LAN & WLAN Chips)
VIA Optical Solution (Controller für optische Laufwerke)
VIA Telecom (Chipsätze für Handys)
 
Eisenfaust schrieb:
Welche Reaktion wird man wohl von einem potentiellen Konkurrenten erwarten können? AMD wird ganz gewiß nicht Hurra schreien, wenn nVidia mit konkurrierenden Produkten den Markt betreten wird. Die Sinnlosigkeit ist kaum in Worte zu packen.
Wie oft noch? AMD hat scho vor nem Jahr gesagt, dass sie nicht in den Netbbokmarkt einsteigen wollen. Daher wird Nvidia in einem vollkommen anderen Segment arbeiten als AMD.

gruffi schrieb:
Als ob eine kleine mobile HD 3xxx viel Leistung benötigen würde.
Mein Laptop benötigt unter Last keine 30W. Wenn da auch nur 5 Watt drauf kommen bedeutet das eine 16% kürzere Akkulaufzeit unter Last. Im Idle liege ich bei 18W. Das wär dann schon fast 1/3 weniger Akkulaufzeit. Und 5W ist wahrscheinlich noch zu wenig.


Im überigen glaube ich auch, dass der Netbookmarkt seine Hochzeit überschritten hat. Netbooks sind wie bereits gesagt wurde gut, wenn man etwas nur für Office/Internet braucht. So etwas hat also schon fast jeder, der eins haben möchte. Bei richtigen Arbeitsgeräten ist mehr Leistung bei längerer Akkulaufzeit viel eher ein Grund umzusteigen. Office wird aber nie sonderlich viel Leistung benötigen.
 
Zuletzt bearbeitet:
Eisenfaust schrieb:
Herr Meyer kennt ganz gewiß die interne Situation _des_ schärfsten Konkurrenten im Bereich Graphikkarten? Wenn diese Frage mit 'JA' beantwortet wird, würde ich mich doch sehr für die Informationsquelle interessieren. Herr Meyer wird garantiert NICHT Fürsprecher nVidias! Unter dieser Prämisse darf sein Kommentar als purer Unfug gewertet werden.

Ein erheblicher Anteil moderner Prozessorarchitekturen lebt bzw. lebte von der Wiederverwertung Innovationen anderer - siehe AMD (DEC Alpha), Intel (Itanium,HTT etc, auch DEC Alpha). Auch AMD begann mit scharf kritisiertem Nachbau der seinerzeit schon in die große Sackgasse rauschenden x86-'Architektur'.

nVidia wird sich den Schritt, einen Kommentar hierzu in die Öffentlichkeit zu schicken, sehr wohl überlegt haben, immerhin darf man erwarten, daß dem Unternehmen einige...


Der sogenannte x86 Schrott bietet nun mal den Vorteil der Kompatibilität zu bestehender und alter Software. Aufgrund der mit Abstand größten Softwarebasis ist es de facto unmöglich einen anderen Befehlssatz am Markt zu etablieren der über keine Abwärtskompatibilität verfügt.
Angemerkt sei hier das sich die Kompatibilität nicht nur auf die theoretische Fähigkeit sondern auch auf eine vergleichbare Leistung bezieht.

x86 hat auf Decoderebene im Gegensatz zu RISC zwar logischerweise viele Altlasten, durch die ständig geringer werdende Fertigungsgröße fällt der Anteil aber immer weniger ins Gewicht. Aus dem Blickwinkel der Rechenleistung ist es sowieso vernachlässigbar ob von RISC oder x86 in microcode übersetzt wird. Aus diesem Grund ist auch der Vergleich mit dem Fundament eines Wolkenkratzers nicht ganz korrekt.

Fertigungsgröße und Decoder, der Grundgedanke hinter Intels Atom Prozessor. Die Verwendung in Netbooks ist da mehr als Testlauf zu verstehen. In kleineren Strukturen und als SoC gefertigt wird es die x86 Basis auf ultraportable Geräte (z.B. Smartphones) erweitern. Damit beschränkt sich die Anpassung von bestehender x86 Software hauptsächlich auf das Frontend. Platformübergreifende Kompatibilität. Ab dem Punkt an dem ein x86 SoC ausreichend Leistung bei vertretbarer Gerätelaufzeit liefert ist er in vielen Anwendungsgebieten einem ARM vorzuziehen, gleichgültig wie viel effizienter dieser ist.
 
der vollständige Unternehmensname ist: VIA Technology

Time_me meinte wohl eher den Besitzer des Unternehmens, und das ist die Formosa Plastics Group.
 
karamba schrieb:
Ich weiß wirklich nicht, wie du auf deine Phantasietrends und -finanzen kommst.
Ganz einfach, weil ich mir die letzten Finanzen von nVidia mal angeschaut habe. Und die sahen alles andere als rosig aus. Im Vergleich zu ATI hat man enorme Verluste mit der Grafiksparte gemacht. Und es wird kurzfristig auch nicht besser. Vielleicht solltest du langsam mal aus deinem nVidia Traumland aufwachen und dir die Realität anschauen. ;)

karamba schrieb:
Atom und Ion wird auch weiterentwickelt. Und in seiner jetzigen Form ist Yukon aufgrund des Strombedarfs eine ganz andere Produktgruppe, als Atom. In dem Bereich schlägt man sich ja schon fast mit Intels ULV Prozessoren.
Dann nenne doch mal konkrete Zahlen. Bisher lässt du leider nur deiner irrationalen Phantasie freien Lauf.

karamba schrieb:
Der M690T + Athlon Neo (derzeitigen Yukon- Systeme) ist nicht BR-tauglich, siehe:
https://www.computerbase.de/artikel...st.657/seite-11#abschnitt_hdtvwiedergabe_h264
Hier langt es gerade so, aber es wird ein X2 3800+ verwendet.
Wen interessiert ein Test von 2007? :rolleyes: Bei Yukon kommt afaik eine X1270 Grafikeinheit zum Einsatz. Und die sollte auch für HD Wiedergabe ausreichend sein. Was am Chipsatz selbst noch gemacht wurde, ist bisher unklar. Du kannst dir aber sämtliche Unterlagen zu Yukon anschauen. HD Wiedergabe ist ein Feature. Und zwar ohne dedizierte Grafikeinheit.

H€553 schrieb:
Mein Laptop benötigt unter Last keine 30W. Wenn da auch nur 5 Watt drauf kommen bedeutet das eine 16% kürzere Akkulaufzeit unter Last. Im Idle liege ich bei 18W. Das wär dann schon fast 1/3 weniger Akkulaufzeit. Und 5W ist wahrscheinlich noch zu wenig.
Das ist doch nicht das Thema. Erstmal, im Idle Betrieb wird die dedizierte Grafikeinheit auch nicht beansprucht. Insofern wird da auch keine Leistung benötigt. Zweitens ist eine solche Karte optional. Und drittens, selbst unter Last läuft die Karte nicht ständig am Maximum. Also einfach zu sagen, die Akkulaufzeit verkürzt sich um so oder so viel Prozent, ist ungenau. Und viertens, das ist kein Problem von Yukon. Jede Plattform mit dedizierter Grafikeinheit braucht bei Bedarf ein paar Watt mehr Leistung.
 
gruffi schrieb:
Erstmal, im Idle Betrieb wird die dedizierte Grafikeinheit auch nicht beansprucht. Insofern wird da auch keine Leistung benötigt. Zweitens ist eine solche Karte optional. Und drittens, selbst unter Last läuft die Karte nicht ständig am Maximum. Also einfach zu sagen, die Akkulaufzeit verkürzt sich um so oder so viel Prozent, ist ungenau. Und viertens, das ist kein Problem von Yukon. Jede Plattform mit dedizierter Grafikeinheit braucht bei Bedarf ein paar Watt mehr Leistung.

Seit wann braucht eine Grafikarte keinen Strom? Das mag vielleicht auf Hybrid SLI zutreffen, aber sonst nicht. Eine HD 3450 Mobility liegt bei 7W im Idle (Quelle). Wenn dies die einzige Grafikkarte ist und nichts a la Hybrid SLI unterstützt wird muss man den Idleverbrauch sehr wohl berücksichten. Dann sind die 16% unter Last eine zu niedrig eingestufte Schätzung.
 
Recht hat er sicher wenn er sagt das die grenze bald verfliessen wird - klar, auch netbooks werden nicht ewig auf 1,6GHz, 10" und 1GB RAM festgenagelt sein. Irgendwann wird jedes netbook HD beherrschen und man kann drauf zocken. Spätestens nach dem launch von windows 7 wird sich da einiges ändern.

Auf jeden fall braucht nv es garnicht erst zu versuchen, ohne lizenz ist eh nichts zu machen und selbst wenn sie via schlucken würden könnten sie nichts reissen. Den ganzen aufwand für einen fraglichen gewinn von ein paar $ po verkauftem netbook wird nv nicht aufbringen. Wir werden keine 100% nv netbooks im geschäft sehen, nicht heute und nicht in 3 jahren. nicht auf x86 zumindest.
AMD muss sich davor nun wirklich nicht fürchten.
 
Hi!

Ich finde es gut das Nvidia CPU und GPU Fusionieren will und sogar noch viele andere Komponenten wie WLAN, Bluetooth etc. darin Vereint. Dies steigert die Performance sicherlich, bei guter Umsetzung.

Komponenten vereinen kann aber sicher nicht das Ende der Fahnenstange bei der Weiterentwicklung des Binären PC-Designs sein, oder?
Was glaubt ihr was noch kommen könnte? (Hardware)
Vielleicht, PC's die Organisch gefertigt werden? (geclont?)
haha, ka vielleicht wird ja etwas real was es in StarWars, StarTrek oder StarGate gibt? :P

gruß
.X4
 
Zuletzt bearbeitet von einem Moderator: (Beitrag wiederhergestellt)
das potenzial, welches in Quantencomputern steckt wird einiges reissen!

man muss es nur ersteinmal entfesseln
und das ist sehr schwer
 
H€553 schrieb:
Seit wann braucht eine Grafikarte keinen Strom? Das mag vielleicht auf Hybrid SLI zutreffen, aber sonst nicht. Eine HD 3450 Mobility liegt bei 7W im Idle (Quelle). Wenn dies die einzige Grafikkarte ist und nichts a la Hybrid SLI unterstützt wird muss man den Idleverbrauch sehr wohl berücksichten. Dann sind die 16% unter Last eine zu niedrig eingestufte Schätzung.
Erstmal kommt vorerst maximal eine HD 3410 zum Einsatz. Und wie ich schon sagte, diese dedizierte Karte ist optional. Und nun nochmal Klartext, was soll dies konkret mit Yukon zu tun haben?
Und zum Thema Stromsparen mit dedizierter Grafikkarte würde ich dir Lektüre über das Thema PowerXpress Technology empfehlen.
 
lässt dirk meyer net öfters mal son schwachsinn von sich ?

erst letztens hatte er´auf heise.de das ende der netbooks angekündigt nachdem gartner zuvor prognosen von ca 35 mio verkäufen für 2009 ausgegangen ist

ich use selber eine atomplattform und die sogar noch von 1,6 auf 800mhz untertaktet da ich wie von vielen hier erwähnt die leistung nicht benötige

ich selber bin softwareentwickler und für das schreiben von quellcode brauch ich absolut keine überdimensionierten stromschluckenden amd kisten

dirk meyer ist vermutlich auf sich selbst nur sauer das er nicht auch in diesem segement mitmischen kann oder er hört sich einfach nur gerne reden. meiner meinung nach läuft er mit geschlossenen augen durch die welt oder er hätte mal die cebit durchlaufen sollen :)

ausserdem ist amd wohl das unternehmen das im moment nur noch rote zahlen schreibt da kann sich intel nur schlapp lachen die produzieren und setzen wenigstens ab wenn auch nur um den deckungsbeitrag zu erzielen
 
Also in dem Komplettinterview sieht man schon, dass der gute Hr. Meyer ziemlich unter Realitätsverlust leidet. Nicht nur lässt er diesen Unsinn gegenüber nVidia vom Stabel sondern widerspricht sich auch mit den Äußerungen gegenüber dem Netbook- und Notebookmarkt.
Einerseits behauptet er, der Markt wäre nur eine Modeerscheinung, was defacto aber durch sämtliche Markttrends widerlegt ist, aber gleichzeit faselt er großspurig davon, dass er eigens für diesen Sektor neue Produkte entwickeln lässt.

Das ist also einfach mal wieder Management-Gerassel erster Güte mit wirklich wenig inhaltlicher Substanz. Das Einzige, was man an solchen Aussagen eben erkennen kann ist, dass Amd Angst vor noch mehr Konkurrenz hat und sich die Fehlentscheidungen im Notebook- und Netbooksektor schönreden muss. Es ist dann nämlich schon tragisch: bei um 10-15% Marktanteil und tiefroten Zahlen dann noch fürchten zu müssen, dass ein weiteres Unternehmen ein paar Prozente wegnimmt verheißt nichts Gutes. Na ja, Konkurrenz soll ja das Geschäft beleben; vielleicht kann ja nVidia in einigen Jahren als adäquater Konkurrent zu Intel auftreten, dass der Kunde auch in der Zukunft günstigere Prozessoren erstehen kann.

Ein dabei einfacherer und schnellerer Marktzutritt von nVidia in die x86-Welt wäre aber allerdings ein Kauf von Amd. Na ja, mal sehen, was dort demnächst noch so passiert.
 
Tja, Denahar, wie immer hast du kein einziges Wort verstanden und bist lediglich in der Lage, unsachlich und mit falschen Vorsätzen über AMD zu lästern. Traurig, traurig. :rolleyes:

@damon6
Lies dir lieber auch nochmal das Interview durch. Es geht nicht darum, dass der Markt für solche Geräte verschwindet. Das hat Dirk Meyer in keinster Weise gesagt. Und mit Verlaub, der Mann hat sicherlich weitaus mehr Ahnung von dem, was er sagt, als manch andere Besserwisser hier.
 
Zurück
Oben