News Matrox nutzt AMD-GPUs für Multi-Monitor-Grafikkarten

Jan schrieb:
Ich frage mich, ob AMD Matrox in Kürze einverleiben wird - um die Software sicher im eigenen Haus zu haben.

Mich wunderte es schon eine ganze Zeit, was da bei Matrox vorgeht. Neuentwicklungen waren ja sehr spährlich. Wir sind leider ein wenig genötigt einzusetzen, daher verfolge ich das auch immer etwas.
Ich schätze mal, wenn die ersten Produkte marktreif sind, wird AMD zuschlagen. Die Software ist dann angepasst und leichter ins CCC zu integrieren. Und man kann dann AMD-Karten als echte alternative zu den Matrox Karten einsetzen. Alleine die dann hoffentlich beibehaltenen Tastaturschortcuts, dürften zahlungskräftige Kunden bringen (Medizin-Software, Steuerung, etc). Beispielsweise, wechseln von Monitoren bei der Anzeige von Rontgenbildern mittels Shortcut (vom Programm unterstützt), kein umlernen bei den Arzten/Helferinnen. Die Softare ist immernoch erheblich besser als das CCC.
Dürfte interessant werden.
 
Zuletzt bearbeitet:
Der Profi-Bereich tickt eh vollkommen anders als der PC-Gamer Markt. Habe schon viele Gerätschaften in Arztpraxen oder Krankenhäusern gesehen und dort ist im Röntgenbereich Matrox nach wie vor Trumpf! ;) Alleine die Darstellungen von hochauflösenden Graustufgenbildern ist anders gar nicht machbar. In diesem Bereich hat sich Matrox seit Jahren einen Namen gemacht. Für die Zocker interessiert sich die Firma nicht mehr. ;)
 
die parhelia hat matrox leider das genick "gebrochen", eigentlich sollte das eine DX9 karte werden, von den rohdaten hätte sie mit einer damaligen radeon locker mithalten können, aber fehlerhafte shader und andere designfehler haben das verhindert:\

hatte eine G400, P750 und aktuell habe ich ein M9120

AMD wird Matrox wohl nicht kaufen können, würde mich wundern wenn die eigentümer aktuell überhaupt verkaufen wollen.
und so eine sensation ist das auch wieder nicht, Matrox verwendet nicht zum ersten mal GPUs von anderen herstellern!
 
Zuletzt bearbeitet:
Der Name Matrox ist bestimmt noch hoch angesehen.
Auch ein Pluspunkt für AMD durch die Kooperation.

AMD stellt sich aktuell neu auf ..
die vielen kleinen Deals, machen sich in Zukunft sicherlich positiv bemerkbar. Wenn auch nur durch den Werbeeffekt.
Grafikchip - technisch herrscht eh über den Daumen gepeilt nahezu jederzeit gleichstand. Ich denke immer noch an Absprachen zwischen nV und AMD.
Im CPU Segment hat man sich mit der Bulldozer Architektur vielleicht ein wenig zu früh an die "Thread"-Verteilung gewagt und die blosse Leistung etwas vernachlässigt.
Wie auch immer, hat man damit die Mulitcore Nutzung durch Software, auf jeden Fall gepusht ..

Dann noch Mantle, welches Microsoft zum handeln gezwungen hat ...

Alles keine direkten Einnahmen für AMD ... aber der Werbeeffekt dürfte auf Dauer enorm sein.

Ich bin mir auch sicher, das AMD mit der nächsten CPU Architektur wieder absolut konkurrenzfähig sein wird im High End Segment. Intel ruht sich etwas zu sehr aus ..

nVidia fasst im Mobile Segment (Tegra) .. auch nicht so Fuß wie wahrscheinlich erwünscht ...

So schlecht steht es um AMD mMn nicht.
 
Ich bin mir auch sicher, das AMD mit der nächsten CPU Architektur wieder absolut konkurrenzfähig sein wird im High End Segment.
bei carrizo sicher nicht, da müßte man schon in 20nm fertigen können und 6 kerne anbieten.
 
Es sind Carrizo Quadcores bei 15W TDP angekündigt die deutlich schneller sein sollen als deren Vorgänger. Ich glaube aber nicht, dass AMD zusätzliche CPU-Kerne für dieses Powerbudget verwenden wird, denn sie müssen noch auf Intel aufschließen und verfolgen dabei klar die Strategie Computing auf die GPU zu verteilen über Software und die CPU zu entlasten. In HSA machen 6 Kerne nicht unbedingt viel Sinn, weil solche Workloads die 6 Threads auslasten können schon auf die GPU gehören laut HSA Philosophie.

Weitere CPU Kerne in das Design zu integrieren würde dem entgegenstehen, was man durch 50% mehr GPU (Entspricht 2 Kernen oder einem Modul, der Kaveri Die hat ca. 50:50 Verhältnis bei CPU:GPU) Einheiten diese Strategie deutlich voran treiben könnte. Ich denke mehr CPU Kerne wird es bei AMDs APUs erst wieder geben wenn mit HSA fähigen Grafikkarten die Performance noch weiter gesteigert werden kann. Man stelle sich dann einen FX vor der nur soviel GPU Einheiten beinhaltet wie nötig, da er mit zugesteckten GPUs die Parallele Rechenleistung beliebig erhöhen kann, und den frei gewordenen Platz auf dem Silicon mit so vielen Modulen wie möglich bestückt - abhängig davon wie erfolgreich sie waren den Softwaremarkt und die Entwickler zum Nutzen von HSA zu bewegen. Sollte HSA scheitern, braucht AMD einen Plan B. Naja wild spekuliert für die Zukunft ;)
 
Win-Win Situation beide profitieren von ,Matrox bekommt so günstige GPUs und AMD bringt Chips an Mann bzw Matrox.
Power Desk lief eh mit Radeon Karten ,von daher spart man da auch Kosten ein.
 
bei carrizo sicher nicht, da müßte man schon in 20nm fertigen können und 6 kerne anbieten

Ich bin mir absolut sicher, dass du ganz genau weißt, dass mit Sicherheit die bisher ominöse neue Architektur gegen 2016 gemeint war :freak:
 
und trotzdem ist excavator die nächste µArch!

an etwas komplett neues glaub ich nicht, gibt keinen grund CMT nicht mehr zu verwenden, AMD könnte auch die FPU teilweise durch die GPU ersetzen, AXV over GPU wird schon spekuliert, µOp-Cache,...
das man dann von etwas komplett neuem spricht ist nicht verwunderlich, der name "bulldozer" ist einfach schon zu sehr verbrannt, weil viele ihr halbwissen darüber verbreiten:\
Ergänzung ()

Matzegr schrieb:
Mit einem System aus sechs FirePro W600 Karten ist es theoretisch möglich 36 Monitore anzusteuern.
wenn matrox nichts ändern lässt, aber vielleicht kann die GPU für Matrox auch mehr als 6 monitore versorgen.
 
Vor ein 3-4 Jahren wurden die Trader eines größeren deutschen Finanzinstitutes alle noch mit Matrox ausgestattet. An den Kisten waren im Schnitt immer so 6-8 TFTs und laut Kunde gab es da nichts vergleichbares... also so klein scheint die Matrox Nische jetzt nicht zu sein und lukrativ ist sie allemal.
 
Zuletzt bearbeitet:
Cool Master schrieb:
Nicht? Erfahrung in GPUs das ist das A und O in Zukunft. Ich sage mal so in ~ 5 jahren werden wir keine dedizierten GPUs mehr haben sondern alles nur noch iGPU.

psYcho-edgE schrieb:
Klar, endlich mal ne leistungsstarke iGPU :D Da kann AMD dann aber mit den APUs einpacken :(

Ich hab das jetzt nicht überprüft, aber ich vermute Leistung pro Chipfläche schlägt intel die beiden GPU-Riesen nvidia und amd (skaliert aber vermutlich schlecht oder gar nicht nach oben). Die wollen doch keine handflächengroßen CPUs produzieren, Wafer sind teuer und je größer ein Chip, desto mehr Ausschuss - sagt man zumindest so als grobe Richtlinie.

Dann kommt noch die TDP dazu: ~100W CPU + ~200W GPU und mehr (wenn man die aktuellen Spitzenreiter nimmt) in einem Chip klingt für mich eher unpraktisch. Benötigt auch "unzählige" Kontakte an besagtem Chip, müsste man vermutlich noch ein paar mehr Layer für ein Mainboard einplanen, wird auch wieder teurer...dann noch das Layout um den Chip drumherum ohne ewig lange Signalstrecken zu haben und bestimmt noch 10 andere Probleme, von denen ich nicht die geringste Ahnung habe.

Zumindest in naher Zukunft erwarte ich das eher nicht, aber ich mutmaße auch nur, keine Ahnung was in deren R&D vor sich geht.
 
Zuletzt bearbeitet:
Matzegr schrieb:
Der Grund warum die Wahl auf AMD fiel wird nicht der Preis sein sondern einfach nur der Umstand, dass es keine Alternative gibt.

Eine Matrox M9188 Grafikkarte hat acht Mini-Displayports. Nvidia bietet hier max. zwei Displayports, AMD max. sechs Mini-Displayports an.

Hauptsache mal Unsinn geschrieben:rolleyes:. Auch bei Nvdia gibt es Karten mit 4 Mini-DP.

http://www.nvidia.de/object/nvs-graphics-cards-de.html
 
Kitch schrieb:
Ich hab das jetzt nicht überprüft, aber ich vermute Leistung pro Chipfläche schlägt intel die beiden GPU-Riesen nvidia und amd (skaliert aber vermutlich schlecht oder gar nicht nach oben). Die wollen doch keine handflächengroßen CPUs produzieren, Wafer sind teuer und je größer ein Chip, desto mehr Ausschuss - sagt man zumindest so als grobe Richtlinie.

Da hast du falsch vermutet: http://www.golem.de/news/intel-cpu-...und-effiziente-grafikkerne-1402-104485-2.html
Hintergrund ist der auf CPUs optimierte Fertigungsprozess, Intel erreicht bei den Grafikeinheiten längst nicht dieselbe Packdichte.

Da ist AMD deutlich weiter, da die Transistoren bei Kaveri identische Packdichte für CPU und GPU Anteil haben. Die Kinderkrankheiten haben sie hinter sich gelassen beim finden der richtigen Transistorgröße und Dichte.
http://www.pcgameshardware.de/CPU-H...Kaveri-A10-7850K-CPU-Test-Benchmarks-1104921/
Die komplette Kaveri-APU wird bei Global Foundries hergestellt, beinhaltet 2,41 Milliarden Transistoren und nutzt den 28nm-Prozess mit SHP-Option. Die Schwierigkeit ist es, eine Prozessoption zu finden, die nicht einseitig auf CPU- oder GPU-Erfordernisse optimiert ist, wie es beispielsweise bei Richland noch der Fall war. Denn während GPUs typischerweise eine hohe Packdichte für die Transistoren anstreben, um viele Recheneinheiten bei mäßigem Takt auf geringer Fläche unterzubringen, ist bei CPUs die erreichbare Maximalfrequenz wichtiger, da die üblicherweise wenigen Kerne gegenüber dem Cache einen vergleichsweise geringen Platzbedarf haben, serielle Aufgaben aber schnell bewältigen sollen.

Wenn man jetzt bedenkt um wie viel niedriger Intels CPUs takten, dank der hohen IPC, dann erkennt man das Dilema. AMD musste auch Takt reduzieren, was viele fälschlicherweise für Probleme der CPU Architektur hielten.

Die kleinste Haswell-Version mit zwei Kernen und GT2-Grafik (20 Ausführungseinheiten) misst 130 mm² und verfügt über 0,96 Milliarden Transistoren, mit GT3-Grafik vergrößert sich die Die-Size auf 181 mm² und die Anzahl der Schaltungen auf 1,3 Milliarden.
Nimmt man also den Haswell mit ca. 1 Mrd. Transistoren mal 2,4 landen wir bei 312 mm² während Kaveri mit 2,4 Mrd Transitoren ca. 240 mm² gross ist. Und Intel hat schon die kleinere Fertigung. Klar ist das nicht 1:1 zu sehen da es ja auch unterschiedliche Die bereiche gibt die nicht so eng gepackt werden müssen, doch der Unterschied ist schon zu sehen. Das sind keine einfach zu lösenden Probleme und es ist alles eine Frage der Balance die alle 6 Monate stimmen muss wenn das nächste Produkt einem Review unterzogen wird - da überlegt man sich die Schritte gut die man einleitet, weil es kein zurück gibt. Die Designentscheidungen sind Jahre vorher gefallen.
 
Zuletzt bearbeitet: (Diesize korrigiert)
Daedal schrieb:
Da hast du falsch vermutet

Kommt vor, danke für die Richtigstellung.

So nebenbei bemerkt: Dass AMD da recht effizient ist was Leistung pro Chipgröße angeht war mir vor einiger Zeit schon aufgefallen als ich Nvidia/AMD mal verglichen habe (bitte kein Fanboygeschrei wenn das inzwischen anders ist), habe aber halt gedacht intel mit ihrem Geld/Forschungs/Fertigungs Vorteilen hätte da schon viel mehr erreicht.
Zeigt aber eigentlich auch, dass denen das nicht soooo wichtig sein kann. Der Markt für starke GPU Leistung ist ja im Vergleich zum CPU Markt scheinbar relativ klein (Wenn man die Umsätze von AMD+NVIDIA mit intels vergleicht). Die haben ja genug GPU Leistung für alles was nicht "anspruchsvolles Gaming" ist...da konzentriert man sich dann halt auf seine Kernkompetenzen.
 
Zuletzt bearbeitet:
Cr4y schrieb:
Kann sich noch jemand an den Parhelia-Hype erinnern? :D

http://www.pcgameshardware.de/Retro.../Matrox-letzte-Gamer-GPU-Parhelia-512-684394/
Was hat man sich damals alles von dem Chip erhofft, nach den Ankündigungen. Schade drum.

Ich hatte rund 2 Jahre eine Matrox Parhelia im Rechner und sie war nicht schlecht (aber leider recht teuer). Das Problem war nur das auch ATI und nVidia nicht geschlafen haben und Matrox sich keine Optimierungssoftware für deren Chip-Design gekauft hat und insgesamt mit veralteter Software rumhantierte.
Das führte dazu, dass der Chip stellenweise ziemlich heiss wurde und die Taktraten nicht angehoben werden konnten (lief also immer mit angezogener Handbremse).
Es gab dann mal eine Nachricht das man sich eine neue Designsoftware gekauft hat (Pressemitteilung) was wohl auch der Grund für die Gerüchte um die Pitou (Parhelia2) befeuerte aus der dann aber nichts wurde...bzw. still und heimlich als Parhelia Refreh in der P-Series verbaut wurde.

Den Parhelia Chip in einer neueren Ausbaustufe kann man (konnte?) man bis vor kurzem noch erwerben (Matrox ist u.a. im Medizinumfeld recht verbreitet - Graustufendarstellung...)
Ergänzung ()

Mextli schrieb:
Vor ein 3-4 Jahren wurden die Trader eines größeren deutschen Finanzinstitutes alle noch mit Matrox ausgestattet. An den Kisten waren im Schnitt immer so 6-8 TFTs und laut Kunde gab es da nichts vergleichbares... also so klein scheint die Matrox Nische jetzt nicht zu sein und lukrativ ist sie allemal.

Matrox hat sich ab ca 2004 auf die hochpreisigen Märkte zurückgezogen nachdem man im sonstigen Endkundenmarkt mit dem Parhelia Chip nichts mehr im Endkundenmarkt ausrichten konnte.

Diese Nischenmärkte sind:
  • Lösungen für den Medizinischen Bereich (High Resolution und hohe Graustufendarstellung --> MRT/CT/...)
  • Lösungen für die Überwachung (Multi-Monitor und High Resolution)
  • Lösungen im Finanzsektor (Multi-Monitor)
  • Lösungen für TV-Sender/Videoschnitt (Multi-Monitor)
 
Nicht? Erfahrung in GPUs das ist das A und O in Zukunft. Ich sage mal so in ~ 5 jahren werden wir keine dedizierten GPUs mehr haben sondern alles nur noch iGPU.

Wenn die Leistung ausreichend würde...
Die PS4 pfeift in 1080P bereits aus dem letzten Loch und der Markt geht in Richtung 4K Fernseher.

Dedizierte GPUs werden nie aussterben weil der Fortschritt derer einfach wesentlich schneller voran geht als bei CPUs.
Man kann sagen die GPU Leistung verdoppelt sich alle 2 Jahre.
Bei der pro Kern Leistung von CPUs ist das nicht der Fall. Das dauert 5..6..+ Jahre.

Einfach "stur" so wie AMD mehr Kerne dran stöpseln hat relativ wenig Sinn. Sonnst hätten wir hier ja alle 100-Kern Pentium I CPUs.

Ich meine - In nicht wenigen Anwendungen & Spielen erreicht Intel selbst mit Sandy Bridge (2011) die 1,8 fache pro Kern Leistung als die neueste "Vishera" AMD CPU.
 
Zuletzt bearbeitet:
Zurück
Oben