Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsMatrox nutzt AMD-GPUs für Multi-Monitor-Grafikkarten
Wenn der Vergleich zwischen Sandy Bridge und Vishera stimmen sollte, dann sind das "Welten". So weit auseinander liegen die Leistungen der Grafikchips bisher nicht. Da herrscht immer schöner Gleichstand zwischen AMD und Nvidia.
Ja du sollst ja auch in einigen Jahren wieder NEU kaufen (müssen)...
Wäre ja wirtschaftlich eine reine Katastrophe wenn wir eine PS4/Xbox One hätten, mit Leistungs satt für 4K.
Und auch wenn Intel das X-fache an Leistung einer High End CPU bietet ...
paare einen FX-8350 mit einer R9 290X oder 780ti Karte und du kannst alles zocken und wirst trotzdem nicht in unspielbare Bereiche kommen.
(FullHD Max Detail)
Wenn der Vergleich zwischen Sandy Bridge und Vishera stimmen sollte, dann sind das "Welten". So weit auseinander liegen die Leistungen der Grafikchips bisher nicht. Da herrscht immer schöner Gleichstand zwischen AMD und Nvidia.
Ich meine - In nicht wenigen Anwendungen & Spielen erreicht Intel selbst mit Sandy Bridge (2011) die 1,8 fache pro Kern Leistung als die neueste "Vishera" AMD CPU.
Ich sehe da eine Behauptung die nichts über die CPU Performance sagt. Wenn die Pro Kern Leistung 1,8 mal höher ist, der andere aber doppelt so viele Kerne hat die jeweils 25% höher takten können, dann ist die CPU mit 1,8 facher Pro Kern Leistung die langsamere unterm Strich.
Und wer den Markt in 5 Jahren mit 4K TVs gesättigt sieht, der sollte sich mal umschauen wie viele überhaupt Full HD haben. Die TV Anstalten bekommen es ja bis heute nicht hin in einheitlichem HD Format zu senden. 4K auf dem TV braucht keiner im Wohnzimmer, noch viel eher auf dem PC weil man nahe davor Sitzt. Wobei ich wirklich nicht weiss was an FullHD schlecht sein soll.
Dies sind halt vornehmlich die Marketing Opfer, bei denen die Unternehmen einen Bedarf geweckt haben, welcher eigentlich gar nicht vorhanden ist. Außerdem können sich manche damit profilieren. Ist ähnlich wie mit den Smartphones.
Alle Nase lang, die Abstände werden sowieso immer kürzer, präsentiert uns die Technologiebranche immer mehr Dinge welche wir "brauchen sollen"....
Wir haben noch immer unseren alten Philips 32" LCD Fernseher mit HD Auflösung (glaube der ist jetzt bestimmt 10 Jahre alt). Für die höchstens 1,5h am Tag, wo das Ding läuft, reicht es.
Die AMD Chips werden einem hinterher geworfen. Warum also mehrere Hunderte Millionen in Entwicklung stecken wenn man für wenige Millionen was von AMD kaufen kann?
Kannst du dafür Belege bringen? Zu 100% hast du weniger als Null Wissen darüber zu welchen Konditionen vereinbart wurden.
Warum ist also deine Aussage als Tatsache formuliert?
Warum machst du sowas?
Da du eh keine Zahlen vorlegen kannst, weiß doch somit jeder, dass du einfach diesbezüglich keine Ahnung hast. Das stellt doch insbesondere die Glaubwürdigkeit deiner Beiträge in Frage.
Meine Samsung 32" Zoll Röhre hat nicht mal HD, und trotzdem sieht jedes Fussballspiel um Klassen besser aus als auf einem beliebigen LCD. Ausser bei Standbildern, doch dann schalt ich das Spiel sowieso nach 10 min. weg wenn die nur rumstehen
Kinofilme schau ich auf FullHD und das ist geil!
Schau dir doch einfach die UVP der Hardware an. Die ist bei AMD so gering, dass man kein Genie sein muss um zu sehen, dass es sich nicht lohnt wen Matrox da etwas eigenes entwickelt. Warum sollte Matrox das Rad neu erfinden wenn man es auch günstiger kaufen kann.
Was haben UVPs mit sepperat ausgehandelten Verträgen zu tun mit zB ganz anderen Garantie und/oder Gewährleistungsansprüchen zu tun?
Und was wissen wir schon über die AMD Chips, welche für Matrox bestimmt sind. Vielleicht sind es genauso extra angepasste Chips wie bsp für die Konsolen, sei es nun die Nintendo Wii, PS4, XOne XBox 360 etc.
Ich denke das Problem ist deine Aussage, dass man AMD Chip hinterher geworfen kriegt. Finde ich auch daneben. Da steckt Forschung und Entwicklung drin und der Preis ist angemessen. Dieses nur Teures ist Gutes und muss Wertgeschätzt werden kann ich auch nicht nachvollziehen. Ich liebe z.B. meinen Phenom II X2 weil er 70,- € gekostet hat und ich ihn jederzeit auf 4 Kerne freischalten kann und noch übertakten kann.
Immer wenn AMD technisch etwas die Nase vorn hat für eine Weile, muss man sich diese Billig/keine Margen/über den Preis kommen Beiträge antun...
Ob Eigenentwicklung teurer ist, hängt zunächst einmal davon ab was man will und wie viel davon man braucht. Vor allem kann es passieren dass man 5 Jahre eine GPU entwickelt und dann wenn sie fertig ist einfach feststellen muss, dass die Konkurrenz besser ist. Da kann man das Produkt einstampfen (siehe Intel un seine GPU Versuche) und sich am Markt umschauen wo man noch etwas bekommt bevor man die nächsten 4 Jahre nichts vorzuweisen hat. Nicht jede Forschung wird zum Endprodukt. Intel konnte die Entwicklungen im Serverbereich mit dem Xeon Phi nutzen, das kann Matrox nicht, da sie spezialisiert sind.
Cool Master
Also hast du einfach keinen Plan. Du hast wie ich schon geschrieben haben weniger als Null Ahnung darüber, welche Verträge da anscheinend gemacht wurden zwischen AMD und Matrox. Trotzdem sprichst du hier von Tatsachen. Deine Tatsache begründest du mit UVP von welchen Karten? Du kennst also die UVP die AMD mit Asus, MSI, Gigabyte, Matrox usw ausgehandelt hat. Gibt es überhaupt eine UVP die AMD mit diesen Hersteller eingeht? Was verkauft AMD überhaupt an Matrox? Chips? Komplette Grafikkarten?
Ganz ehrlich, das ist in meinen Augen einfach nur noch abgrundtief schwach. Jetzt bist du hier seit fast 10 Jahren. Schreibst fast 4 Beiträge pro Tag. Dein Grundtenor gegenüber alles was von AMD kommt ist negativ. Zeigst aber hier wie extrem mangelhaft dein Wissen ist und stellst dieses mangelhafte Wissen als Tatsache hin.
Ach was.... Ich habe sogar AMD Aktien also bitte unterstelle mir nicht sowas. Wir ich schon schrieb ich hate selber ein FX-57 und mehrere X2. Dazu kommt mehr als genug ATI bzw. AMD Karten. Und ich Geschäft kaufe ich auch laptops mit APUs.
Bin ich zufrieden was AMD in letzer Zeit gemacht hat? Nein bin ich nicht wie jeder andere Aktionär auch. Allerdings gibt es auch gute Sachen z.B Mantle und die fertigung der Chips für die PS4. Trotzdem muss man nicht alles zustimmen was AMD in letzer Zeit gemacht hat...
Bin ich zufrieden was AMD in letzer Zeit gemacht hat? Nein bin ich nicht wie jeder andere Aktionär auch. Allerdings gibt es auch gute Sachen z.B Mantle und die fertigung der Chips für die PS4. Trotzdem muss man nicht alles zustimmen was AMD in letzer Zeit gemacht hat...
Was soll denn alles schlecht gewesen sein? Was mir da einfällt, sind nur die FX-9 CPUs, die hätte man niemals veröffentlichen dürfen, da hat AMD völlig unnötig Spott und Kritik wegen der inakzeptabel hohen TDP provoziert und seinem Image geschadet. Auch die Entscheidung den hoffnungslos überforderten Standardkühler, den man vermutlich seit der HD5870 verwendet, auf die neuen High End GPUs zu schnallen, war fatal. Warum man den eigentlich sehr guten Chip auf diese Weise selbst schlecht darstellt (sehr hohe Leistungsaufnahme des Lüfters, Temp Target und die damit zusammenhängende erhöhte Leistungsaufnahme des Chips, Drosselung der Leistung und zu lauter Lüfter da zu schwacher Kühler) ,kann ich nicht nachvollziehen.
Der Referenzkühler und die FX9 CPUs das waren die beiden Fails der vergangenen Jahre. Aber zählen wir doch mal die Erfolge auf: absolut konkurrenzfähige low power APUs mit Jaguar und Puma+ Kernen, erste HSA fähige APU, gute Laptop APUs auf Kaveri Basis, Ausstattung des kompletten Konsolenmarkts und damit der endgültige Einzug des Multithreadings in Spielen, FirePros für den neuen Mac Pro, die wohl beste Dual GPU Karte die je veröffentlicht wurde, Einführung von TrueAudio und Mantle wodurch DX12 und besseres OpenGL angekündigt wurden und Nvidia einen 'wundertreiber' veröffentlichte, einmal die stärkste und einmal die effizienteste Profi Karte..und das alles in den letzten 1,5 Jahren.
und du glaubst der anteil der leute, die sich auf IT-"Fachseiten" informiert ist hoch?
wenn ich mich bei mir in der familie umsehe hat das niemand mitbekommen, da müßte es schon in der tageszeitung landen um aufgenommen zu werden!
die "neue" führung mit rory read macht halt alles richtig, aber fehlentwicklungen bei µArchs sind eben nicht über nacht korrigiert.
bulldozer/piledriver wurde einfach totgespart, der decoder war für ein modul viel zu schwach:\
Genauso sehe ich das. FX 9 und die schlechten Referenzkühler der Grafikkarten haben viel Image in den Foren gekostet. Diese Stimmen dringen doch wohl weit nach draußen. Wir sehen ja wie viele hier im Forum, nur über diesen beiden Kostensparpunkte FX 9 und Kühler AMD definiert wird.
AMD hat klasse Produkte und Mantle hat sogar bewirkt, dass Intel zumindest verbal von mehr Open CL Unterstützung meldet. Die vielen Fachwissenkenner in diesem Forum wissen aber am Ende nichts, wollen aber es viel besser Wissen. Nvidia macht klar einen guten Job. AMD hat also noch Spielraum nach oben. Matrox will offensichtlich AMD Produkte