News AMD stellt „Eyefinity“ für DirectX-11-Karten vor

natürlich kostet 3d vision leistung, den effekt gibt es nicht zum nulltarif, genau wie eyefinity. bei eyefinity ist das problem aber noch schlimmer, da neben xfachen leistungshunger auch astronomische VRAM mengen nötig sind.

aber das ist nicht so tragisch, ich erkläre warum:

natürlich spielt man crysis ohne 3d vision, weil dann fps unter flüssigen 30fps liegt (ohne high end sli)

aber es gibt mindestens taussend titel, bei welchen das völlig egal ist, dass fps von 100fps auf 50fps einbricht. das ist immer noch mehr als die mindestanforderung von 30fps, und somit ist dem spieler käse. dafür bekommt er in diesen spielen einen echten mehrwert durch 3d vision.

und ganz nebenbei, mit 3d vision lassen sich 3d filme wunderbar schauen. ich habe selbst eine 3d kinosammlung und die machen richtig spass (leider durch anaglyph version etwas getrübt). kino schauen mit eyefinity ist überhaupt eine ganz schlechte idee. dann lieber doch einen 47" fernseher (kostet nicht die welt, ca. 750€) mit full hd, sich beim spielen etwa näher ransetzen und gutes AA einschalten. kostet weniger als 6 monitore und gibt keine hässlichen ränder mitten durchs bild. auch weniger leistung und ram, somit mehr fps sind möglich.

verstehe nicht warum einige so scharf auf eyefinity sind. bin mir sicher, sobald man selbst ein 6 monitor setup zu hause stehen hat, wird die ernüchterung wegen den rändern ganz schnell eintreten. alleine schon die zerreißung der GUI in einem spiel auf mehere monitore dürfte nur noch verwirrend wirken. bei shootern vielleicht nicht so auffallend, bei rollenspielen (inventar) wäre das ein disaster.
 
Zuletzt bearbeitet:
@kasmo

du hast ja bestimmt auch auf den videos gesehen,dass grid2 und Hawks auf 3 bzw 6 bildschirmen sehr flüssig lief,ohne nachladeruckler etc, cryteks cryengine3 demo auch.

wenn du jetzt hawks nimmst,dort mal den verbrauch misst, wirste wohl auch auf meinetwegen 800mb sonst was kommen. hochgerechnet auf deine propagierten 3gb mindestVram whatever...wieso liefs dann mit einer karten bombenflüssig? sogar das waldcrysis lvl? oder die dirt2 Strecke? ich dachte 1gb wäre da bei diesem bombmenVram verbrauch der krüppel und Eyefinity "unspielbar" und zu nichts nütze?


gruß
 
cryteks cryengine3 demo auch.
Ja hab ich und das hat meine Meinung gefestigt. Crysis lief mit DX9 auf jeden Fall nicht mit DX 10 max. Details und AA. Ich bin fest davon überzeugt mit Eyefintiy muss man Abstiche in Sachen Vram Verbrauch machen, soviel Vram bekommt man zu Zeit einfach nicht unter. 3x hohe Auflösung + DX 10 + max. Details + AA ist einfach nicht drin. Glaubst mir nicht? Gut dann müssen mir wohl die Tests abwarten... ;)

PS:
und ganz nebenbei, mit 3d vision lassen sich 3d filme wunderbar schauen. ich habe selbst eine 3d kinosammlung und die machen richtig spass (leider durch anaglyph version etwas getrübt). kino schauen mit eyefinity ist überhaupt eine ganz schlechte idee. dann lieber doch einen 47" fernseher (kostet nicht die welt, ca. 750€) mit full hd, sich beim spielen etwa näher ransetzen und gutes AA einschalten. kostet weniger als 6 monitore und gibt keine hässlichen ränder mitten durchs bild. auch weniger leistung und ram, somit mehr fps sind möglich.

verstehe nicht warum einige so scharf auf eyefinity sind. bin mir sicher, sobald man selbst ein 6 monitor setup zu hause stehen hat, wird die ernüchterung wegen den rändern ganz schnell eintreten. alleine schon die zerreißung der GUI in einem spiel auf mehere monitore dürfte nur noch verwirrend wirken. bei shootern vielleicht nicht so auffallend, bei rollenspielen (inventar) wäre das ein disaster.

Treffender könnte man es nicht formulieren.:schluck: Aber wie schon mal geschrieben es gibt auch Leute die µRuckler, Input Lag etc. nicht merken, für solche Leute ist dann Eyefinity doch wieder was.

Ich beneide dich um deine 3D Filmesammlung. Freu mich schon richtig auf 3D Vision. :)
 
Zuletzt bearbeitet:
die option auf 6 bildschirme wirds im casual gamer bereich auch nie geben,die ist eher für den professionelen bereihc und präsentationsbereich gedacht, deshalb wurde es auch überhaupt entwickelt.

aber 3 bildschirme ist was nettes, für jedes rennspiel und für viele egoshooter eine wahre bereicherung.

geht nicht mit Nvidia, da verzichte ich mal gerne auf 8xAA, wenn ich einfach mehr bild in räumlicherer form habe.

@kasmo,

dass es mehr Vram braucht ist klar,aber wie viel mehr wissen wir momentan nicht. ich kann mir schlecht vorstellen,dass AMD so toll mit dem Feature wirbt,so viele spielefirmen damit ins boot holt, und solch einen rummel drum macht,wenn ruckeln würde, bzw der vram zu begrenzt wäre. klar wirste texturmods bestimmt nicht auf 3 bildschirmen spielen können,aber gewöhnliche spiele schon. du kannst bei nvidia ja fast kein aktuelles spiel in 3d spielen..von demher ist da schon mal sicherlich mehr geboten.

gruß
 
Kasmopaya schrieb:
Du gehst jetzt einfach mal davon aus das du recht hast, das werden wir aber erst bei realen Tests von Eyefintiy sehen und dann schau ma mal. :D

Was soll ich bei realen Tests sehen? Das Eyefinity funktioniert wie TripeHead2Go, oder wie mit mehreren Grafikkarten? Das du Äpfeln mit Birnen vergleist, weil beide Techniken völlig unterschiedliche Ziele verfolgen?
Das du alles was dir in den kram passt schön redest, und alles was nicht, in den Dreck ziehst - komme was wolle?

Kasmopaya schrieb:
Rolf und was glaubst du was Eyefintiy frisst? Ich kannst dir jetzt schon sagen Vram ohne Ende der größte Vram Fresser aller Zeiten... + Rohleistung ohne Ende...

Außer man arbeitet damit, aber das kann man auch ohne Eyefintiy mit 3 oder mehr Monitoren.
Es wurde nie behauptet das Eyefinity nicht mehr Leistung verbraucht - eben in dem Maße, wie die Auflösung sich insgesammt erhöht. Es wurde aber auch nicht behauptet, das man bei Triple Head um jeden Preis mit allen Qualitätsverbessernden Einstellungen spielen wird.

Eben Gegensatz hast du aber von fehlender Leistung gefaselt, statt zu erwähnen das 3D Vision seinerseits über 50% an Leistung frisst - mit welcher nicht-Enthusiasten Karte soll man dann die tollen Spiele spielen, mit AA und AF ganz oben, in Full HD und höher bei weniger als die hälfte der Frames?

Und nein, auch arbeiten kann man bisher nicht mit mehr wie 2 Monitoren, mit einer NORMALEN Grafikkarte.

yurij schrieb:
natürlich kostet 3d vision leistung, den effekt gibt es nicht zum nulltarif, genau wie eyefinity. bei eyefinity ist das problem aber noch schlimmer, da neben xfachen leistungshunger auch astronomische VRAM mengen nötig sind.

Ach ja? Sagt wer? Und wer sagt das Anti Aliasing nach oben gedreht werden will?

yurij schrieb:
aber das ist nicht so tragisch, ich erkläre warum:
natürlich spielt man crysis ohne 3d vision, weil dann fps unter flüssigen 30fps liegt (ohne high end sli)

aber es gibt mindestens taussend titel, bei welchen das völlig egal ist, dass fps von 100fps auf 50fps einbricht. das ist immer noch mehr als die mindestanforderung von 30fps, und somit ist dem spieler käse. dafür bekommt er in diesen spielen einen echten mehrwert durch 3d vision.

Und eben diese tausend Titel werden auch problemlos mit Eyefinity im Triple Head Funktionieren - selbst wenn man hier und da was an der Qualität verringern muß, genauso wie man es bei 3D Vision tun muß.

yurij schrieb:
und ganz nebenbei, mit 3d vision lassen sich 3d filme wunderbar schauen. ich habe selbst eine 3d kinosammlung und die machen richtig spass (leider durch anaglyph version etwas getrübt).

Und? Macht es Spaß alleine vorm Monitor zu hocken, mit der Shutter Brille auf der Nase, statt mit Freunden im Wohnzimmer vorm Media Center?
Oder hey, du meinst doch wohl nicht diesen Rot-Grün scheiss, oder? :D

yurij schrieb:
kino schauen mit eyefinity ist überhaupt eine ganz schlechte idee.

Wer zum Teufel hat behauptet, darüber Filme gucken zu wollen? Ist doch wohl selbstverständlich, das dies keinen Spaß machen wird. Bleib sachlich.

yurij schrieb:
dann lieber doch einen 47" fernseher (kostet nicht die welt, ca. 750€) mit full hd, sich beim spielen etwa näher ransetzen und gutes AA einschalten.

Was jetzt, stellst du dir nen 47" TV auf den Schreibtisch, oder hockst du dich im Schneidersitz im Wohnzimmer vor die Kiste? Ist ja beides nicht sehr prickelnd, aber jeder wie er es mag. Wenn ich den Schreibtisch in den Raum vor ne Wand stelle, und den 47" dahinter hänge, ist das sicher nicht schlicht, aber es hat auch niemand behauptet das sowas nicht gefallen könnte.

yurij schrieb:
kostet weniger als 6 monitore und gibt keine hässlichen ränder mitten durchs bild. auch weniger leistung und ram, somit mehr fps sind möglich.
verstehe nicht warum einige so scharf auf eyefinity sind. bin mir sicher, sobald man selbst ein 6 monitor setup zu hause stehen hat, wird die ernüchterung wegen den rändern ganz schnell eintreten. alleine schon die zerreißung der GUI in einem spiel auf mehere monitore dürfte nur noch verwirrend wirken. bei shootern vielleicht nicht so auffallend, bei rollenspielen (inventar) wäre das ein disaster.

Mach die Augen auf, schalte dein Gehirn ein, und überlege mal welcher normale Mensch sich zuhause 6 Monitore auf den Schreibtisch stellt. Heh? KEINER! Niemand redet hier von 6 Monitoren!
Hier geht es zum millionsten mal, NICHT UM 6 MONITORE. Triple Head besteht aus 3 Monitoren!

Leute rafft es ... hier geht es nicht um Eyefinity ist besser wie 3D Vision. Das sind 2 Grundverschiedene Dinge! Und jeder kauft sich das, wofür er selbst einen Nutzen findet.

Also hört auf, mit diesem beschissenen kaputt gerede einer neuen, zukünftig günstigen und tollen Technik!

Im übrigen, auch nochmal dir ganz persönlich, yurij:

3D am PC gibt es auch in anderer Technik von anderen Herstellern. Nicht nur von Nvidia!
 
Zuletzt bearbeitet:
dass es mehr Vram braucht ist klar,aber wie viel mehr wissen wir momentan nicht. ich kann mir schlecht vorstellen,dass AMD so toll mit dem Feature wirbt,so viele spielefirmen damit ins boot holt, und solch einen rummel drum macht,wenn ruckeln würde, bzw der vram zu begrenzt wäre.
Ich kann mir das schon vorstellen und wie du schon gesagt hast, es funktioniert ja auch, aber man muss hald Abstriche machen. AA runter schrauben, keine Texturmods, keine Vram fressenden Games etc.

du kannst bei nvidia ja fast kein aktuelles spiel in 3d spielen..von demher ist da schon mal sicherlich mehr geboten.
Warte auf GT300 dann gehts los mit echtem 3D. :D
 
wenn ich schon echtes 3d höre könnt ich brechen. ich kann mich noch gut an meine elsa shutterbrille erinnern und wie schnell die wieder in der versenkung verschwunden ist. jetzt soll ich mir auch noch nen neuen tft kaufen damit ich 3d vision nutzen kann? oder noch besser ich kauf mir 2 shutterbrillen um mit meiner freundin nen film zu schauen und meine freunde bringen am besten auch noch alle ihre shutterbrille von zuhause mit. freu mich schon auf gemütliche heimkinoabende mit popkorn und kabelsalat. mmhhh lecker. ist mal lustig für nen imax abend aber für zuhause völlig witzlos. meiner meinung nach wird 3d vision, bluray 3d und wie die ganzen tollen um 3d aufgeblasenen standards auch immer heißen ein nischendasein fristen wie die alten versuche 3d consumer-tauglich zu machen.
 
Kasmopaya schrieb:
Warte auf GT300 dann gehts los mit echtem 3D. :D


ich bezweifle,dass du damit Crysis mit AA und 3D spielen kannst. Aber Crysis geht anscheinend auf 6 Bildschirmen, wahrscheinlich ohne AA.

Somit kann man die Leistung der Karten gleich setzen.

Aber was ist,wenn ich ein REnnspiel oder sonstiges auf 3 Monitoren spielen will, und nur eine Nvidia habe?

gruß
 
Aber 3x22" Setup ist schon fest eingeplant.
Sowas kann ich nicht verstehen, ersteinmal ist das Bild viel zu breit, dafür viel zu niedrig. Der Spass ist nicht umsonst, auch wenn du billigst 22er mit entsprechender Billig Qualiät holst.
Im Extremfall hast du nur die Sichtfläche eines 22er, wegen dem Extremfall fällt ein querstellen der Schirme flach.

Zwei Billig Schirme für die Seiten und einen ordentlichen für die Mitte könnte ich noch verstehen, die an der Seite auch zurecht gedreht, dann ist es nicht ganz so abartig breit.

Schinzie schrieb:
Aber was ist,wenn ich ein REnnspiel oder sonstiges auf 3 Monitoren spielen will, und nur eine Nvidia habe?
Ausgekichert, dank Plattformbindung. Eigentlich das letzte im PC Bereich. Zur absoluten Not gibts das Matrox Ding.

Nvidia machts mit PhysX und 3D und Cuda vor, AMD erkennt das Potential der Kundenbindung und liefert das hier.

geht nicht mit Nvidia, da verzichte ich mal gerne auf 8xAA
Oh, das "Argument schlechthin" zerfällt gerade. ;)
Guter Termin, rechtzeitig vorm GT300 mit gefixter 8xMSAA Leistung interessiert dies nicht mehr. Man bekommt richtig Mitleid mit Nvidia, immer machen die Jungs alles falsch.
Mal sehen ob die Tester diesmal dem Wunsch der Nutzer nachkommen und eine "höhere Auflösung" statt "xfachen MSAA ohne TAA und mit LQAF" testen.
 
Unyu schrieb:
Oh, das "Argument schlechthin" zerfällt gerade. ;)

zitiere mich bitte immer ganz und nimm nicht satzfetzen ausm zusammenhang raus.
Ich schrieb: "geht nicht mit Nvidia, da verzichte ich mal gerne auf 8xAA, wenn ich einfach mehr bild in räumlicherer form habe".

außerdem könnten wir den spieß mit 3D vision und SSAA usw auch einfach umdrehen,also lassen wirs lieber, solange wir nicht genau wissen wie, und wie gut, eyefinity funktioniert.

Guter Termin, rechtzeitig vorm GT300 mit gefixter 8xMSAA Leistung interessiert dies nicht mehr. Man bekommt richtig Mitleid mit Nvidia, immer machen die Jungs alles falsch.

jetzt habens vielleicht mitm AA nachgeholt,dafür ist AMD wieder nen Schritt weiter und bietet 200% mehr Bild *fg*.

gruß
 
milamber: 3D am PC gibt es auch in anderer Technik von anderen Herstellern. Nicht nur von Nvidia!

ich würde gerne von dir wissen, welche techniken du meinst? es gibt noch ein paar andere treiber, weiss nicht mehr wie die hießen, kamen aber vom umfang her nicht ganz an stereoscopic treiber von nvidia ran.

Wer zum Teufel hat behauptet, darüber Filme gucken zu wollen?
ICH behaupte mal dass viele auch filme am pc anschauen, deswegen ist das auch ein sehr wichtiges kriterium, wenn es um monitor setups geht, und darum geht es hier.

Was jetzt, stellst du dir nen 47" TV auf den Schreibtisch, oder hockst du dich im Schneidersitz im Wohnzimmer vor die Kiste?
Ganz genau, das mache ich, und du kannst dir kaum vorstellen was für ein erlebnis das ist, sonst würde solchen kram hier nicht schreiben ;) Richtige sitzabstand spielt je nach diagonale (bei mir 47") übrigens wichtige rolle, zu fern - texte werden schlecht lesbar, zu nah - wird man von spieleumgebung gerade zu erschlagen

Und? Macht es Spaß alleine vorm Monitor zu hocken, mit der Shutter Brille auf der Nase, statt mit Freunden im Wohnzimmer vorm Media Center?
Was soll denn das für kommentar sein? Natürlich ist mein Spiele PC auch zugleich mein Media Center im Wohnzimmer. Und ja es macht Spass mit mehreren Freunden 3D zu schauen. Habe 3 Anaglyphbrillen, wo ist das Problem. Man kann genau so mehrere Shutterbrillen gleichzeitig verwenden - das wäre ein traum, nur gibt es leider keine Großformat-Fernseher mit 120Hz Einspeisung in Deutschland zu kauffen.

Leute rafft es ... hier geht es nicht um Eyefinity ist besser wie 3D Vision. Das sind 2 Grundverschiedene Dinge!
Richtig, beide sind mehrwert Beilagen von ATI bzw. Nvidia. Jeder kann für sich persönlich entscheiden was er mehr haben will. Bei mir ist es 3D Vision, aber ich wünschte sehr, dass ATI auch etwas ähnliches rausbringt, das könnte bei meinem nächsten Grafikkartenkauf der entscheidende Punkt zugunsten eines Herstellers sein, wenn Preis/Leistung am sonsten ähnlich ist.
 
Zuletzt bearbeitet:
yurij schrieb:
ich würde gerne von dir wissen, welche techniken du meinst? es gibt noch ein paar andere treiber, weiss nicht mehr wie die hießen, kamen aber vom umfang her nicht ganz an stereoscopic treiber von nvidia ran.

Anaglpyh gibts von iz3d Treiber - auch für ATi - , für die üblichen Rot/Grün Brillen oder Gelb/Blau von ColorCode 3D.

Shutter gibts neben den teuren 3D Vision von Nvidia ebenfalls auch von einem anderen Anbiter, nämlich eDimensional - und die sind günstiger als 3D Vision Shutterbrillen und sollen sehr gut sein. Wie bei Nvidia wird auch hier ein 120Hz Monitor benötigt.

Nachteil bei beiden ist natürlich, das du entweder alleine Spielst und Film guckst, oder dir teure Brillen für Familie und Freunde bei Seite legst, und das geht tierisch ins Geld.

Mit Polarisation arbeiten verschiedenen Monitore, z.B. von erwähnten IZ3D die auch die Treiber anbieten.
Oder den den Zalman M220W.
Polarisation ist das, was in vielen Kinos derzeit verwendet wird, ist mit passiven Brillen, und nach Meinungen der meisten die bessere Alternative, vor allem wirds mit jedem Zuschauer erheblich günstiger gegenüber Shutter.

Es gibt komplett ohne Brille funktionierend den Wazabee, den sogar Computerbase getestet hat.

Es gibt ne 3D VR Brille, Vuzix VR920. Und das sogar für Unterwegs.

Ausserdem gibts noch spzielle Projektoren für den Consumer Bereich die sowohl mit Polarisationstechnik oder Shutterbrillen den Markt bedienen.

Nach Anaglpyh, was nun mal wirklich nen Witz ist, und nicht für mehr taugt wie ein "boah guck mal wie lustig"-Effekt, gefällt mir die Shutter Technik am wenigsten; zum einen weil nicht wenige Menschen damit probleme haben, weil es bei den falschen Lichtquellen nicht oder nur bedingt zu gebrauchen ist (Leuchtstoffröhren und afaik auch Energiesparlampen), und weil neben dem eh schon teuren Monitor noch die teuren Brillen hinzu kommen.

Aber es ist ja klar Nvidia auf diese Art von 3D setzt, nur hier können sie an der Hardware kräftig mit verdienen.

Und da mutet es doch ziemlich lächerlich an, wenn Leute wie Kasmopaya in Nvidia den heilsbringer propagieren, der 3D "Salonfähig" macht, obwohl die einfach nur alte Technik neu aufwärmen, teuer verkaufen, und aufgrund ihrer Grafikkarten mehr aufssehen erregen, als schon plazierte Anbieter wie iz3d.

Nvidia hat also, sowohl mit den Treibern, der Unterstützung als auch in der Hardware NICHTS NEUES gebracht, sondern nur KOPIERT.

yurij schrieb:
ICH behaupte mal dass viele auch filme am pc anschauen, deswegen ist das auch ein sehr wichtiges kriterium, wenn es um monitor setups geht, und darum geht es hier.

Hier geht es um allgemeines MultiMonitoring, in Verbindung mit Spielen, Arbeiten und Präsentation - oder für was auch immer man dies zukünftig nutzen möge.
Du jedoch kommst daher, saugst dir den Imaginäre Kunden aus den Fingern, der völlig geblendet 6 Monitore kauft, sich daheim hinstellt, um dann zu erkennen das beim Filme gucken, oder spielen die Ränder stören. Das ist blödsinn!
Selbst verständlich macht es keinen Spaß einen Shooter auf 6 Displays zu spielen, wo das Fadenkreuz irgendwo zwischen zwei Monitoren hängt, oder nen 21:9 Film auf 3 Monitore zu erweitern, was sich nie jemand antun würde.

yurij schrieb:
Ganz genau, das mache ich, und du kannst dir kaum vorstellen was für ein erlebnis das ist, sonst würde solchen kram hier nicht schreiben ;) Richtige sitzabstand spielt je nach diagonale (bei mir 47") übrigens wichtige rolle, zu fern - texte werden schlecht lesbar, zu nah - wird man von spieleumgebung gerade zu erschlagen

Hab ich mir selbst auch schon überlegt, statt nen Monitor, einen großen Fernseher zu nutzen. Jedoch braucht man dafür auch den richtigen "Arbeitsplatz". Nämlich die Möglichkeit Gerät auf Augenhöhe vor einem anzubringen, und je nach momentanen gebrauch - zocken, Film gucken oder surfen / arbeiten den Sitzplatz variieren kann - also den Schreibtisch ggf. herann schiebt, oder weg zieht.
Was an der Konsole in nem Gamingsessel oder Sitzsack im Wohnzimmer noch problemlos machbar ist, ist am PC schon schwieriger, und den Platz hat halt keiner.
Ich werde jedenfalls nicht vor dem TV im Wohnzimmer mit Maus und Tastatur herumrobben. Und da steht zufälligerweise ein 50" Plasma ...

yurij schrieb:
Was soll denn das für kommentar sein? Natürlich ist mein Spiele PC auch zugleich mein Media Center im Wohnzimmer. Und ja es macht Spass mit mehreren Freunden 3D zu schauen. Habe 3 Anaglyphbrillen, wo ist das Problem. Man kann genau so mehrere Shutterbrillen gleichzeitig verwenden - das wäre ein traum, nur gibt es leider keine Großformat-Fernseher mit 120Hz Einspeisung in Deutschland zu kauffen.

Eben, 1. gibts nicht so große Fernseher, 2. kosten Shutterbrillen teures Geld, 3. ist 3D mit Anaglyphenbrillen nur nen Gimick.

yurij schrieb:
Richtig, beide sind mehrwert Beilagen von ATI bzw. Nvidia. Jeder kann für sich persönlich entscheiden was er mehr haben will. Bei mir ist es 3D Vision, aber ich wünschte sehr, dass ATI auch etwas ähnliches rausbringt, das könnte bei meinem nächsten Grafikkartenkauf der entscheidende Punkt zugunsten eines Herstellers sein, wenn Preis/Leistung am sonsten ähnlich ist.

ATi braucht soetwas nicht mehr erfinden, das gibt es schon. Es gibt 3D Lösungen, die auf ATi Hardware funktionieren, und sogar günstiger sind als 3D Vision.

Natürlich gibt es auch die möglichkeit Multi Display Funktionen mit Nvidia Hardware zu nutzen, jedoch hier hingegen nicht günstiger als bei ATi, sondern teurer!
 
Zuletzt bearbeitet:
omg! Einfach der Hammer, ich würde sagen es ist eine neue Ära angebrochen.
Ich bin mir über die in etwaige Leistung der 5870 nicht mal mehr im Ansatz drüber klar.
 
yurij schrieb:
ICH behaupte mal dass viele auch filme am pc anschauen, deswegen ist das auch ein sehr wichtiges kriterium, wenn es um monitor setups geht, und darum geht es hier.

und ich behaupte mal, jemand (Ausnahmen bestätigen die Regel) der filme am PC guckt, und mit PC meine ich keinen HTPC an einem TV, sondern einen normalen PC an einem "Monitor", wird sich keine 3 oder gar 6 Bildschirme leisten.

somit geht es primär um leute,die mit 3 Bildschirmen zocken wollen, oder um Präsentationstechnik.

Wer hockt schon 60cm von nem 42" rum? das ist ja, naja,lassen wirs.

gruß
 
sobald es sowas für unter 1000€ gibt wirds gekauft. das ist ja mal sowas von genial.

allerdings wird das wohl nicht mehr mit einem anschluß laufen.


gruß
 
Nein sind 3 Monitore halt ohne Rand an der Seite aber mit den 5000 er ATIs geht das dann ja.
Die Preise werden sinken Samsung arbeitet auch schon an sowas.
 
Zurück
Oben