Bericht Bericht: ATi Eyefinity 2010

die Samsung Monitore hab ich auch schon entdeckt. Es ist eigentlich ein netter Ansatz. Alles sauber in einem rack verbaut, Kabelführungen, Fernbedienung usw. Nur warum hört Samsung da auf halbem Weg auf und baut die Monitore net direkt so, dass man ein nahtloses Bild erhält. Wer auf Rahmen als Abgrenzung wert legt könnte dann ja per software trotzdem noch Rahmen bekommen. Wirklich schade, guter Ansatz aber nicht zuende gedacht. Was mir bei dem dort verwendeten Monitor aufgefallen ist, er ist als ISO 9241-307, Pixelfehlerklasse 1 eingestuft. Das ist auch mal was neues für mich in der Preisklasse.
 
@qBiC
Stell dir einfach vor du zockst wie immer auf deinem Monitor, der ja rechts und Links wie jeder Monitor nen Rand hat. Spielst du mit Eyefinity ändert sich nix, außer dass du ein erweiterten "Panorama" eindruck bekommst. Man achtet eigentlich weder auf die Ränder, noch großartig auf die anderen Monitore, sondern wie immer auf den mittleren Monitor. Und genau dieses Feeling versetzt einen wesentlich tiefer ins Game.

Ich sag nur schön ne Runde AvP oder DeadSpace im Dunkeln mit Eyefinity. Das ist echtes Gruselfieber. Oder F1 2010 mit Lenkrad und Eyefinity. Sry aber wer das nicht selber mal getestet hat, der kann einfach nicht mitreden, weil die Theorie mag ja stimmen, dass Eyefinity schwachsinn ist, aber inner Praxis siehts wieder ganz anders aus.

Und genau dieser Punkt fehlt mir auch bei diesem Test. Es hört sich total "statisch" und emotionslos geschrieben an. Auch die getesteten Spiele sind größtenteils nicht gut dewählt für EYEF.
Spiele auch kein CS:S mit Eyefinity oder Crysis.

Finde es sollte auch mehr erwähnt werden das die Spielehersteller mehr für Multimonitoring optimieren sollten. AMD oder Nvidia haben damit nix zu tun. Fehlt noch das die in den Configs der Spiele rumhacken müssen^^
 
@ 3023597 (Robert)

Schön das mir wenigstens einer antwortet :).

Kurz zusammengefasst:
Ich nehme eine 6870 lasse aber das Eyefinity aus. Mit anderen Karten (von Nvidia) geht es aber nicht da die nicht 2 Anschlüsse gleichzeitig ansteuern können.

Den einen Bildschirm muss ich leider mit VGA verbinden, mehr Anschlüsse hat der Monitor leider noch nicht.

Grüße, cheater
 
ich kann auch nur sagen das ich begeistert bin .
habe eine 5870 1gb und spiele alle spiele mit 5968x1080 ??? warum nehmt ihr alle die auflösung 5760x1080 ??? ich habe es noch nicht so lange aber alle games laufen mit 2fache kantenglättung .

bfbc2 30-55 bilder meistens 35

f1 2010 der hammer 30-40 bilder

left 4 dead 2 60 bilder

metro 2033 hmm der frisst meine hardware ... denke das ist klar

splinter cell conviction 15 -40 bilder aber ganz selten unter 20 . ehr 25-30

need for speed shift 40 - 60 bilder

also die spiele gehen ab bis auf metro , das ist allerdings eh nicht so toll.

der rand stört wirklich gar nicht muss ich sagen .

es gibt aber auch spiele wie cod mw2 die das nicht von sich aus unterstützen aber das würde ja schon gesagt .

mafia 2 kommt bei mir ins schwitzen aber alles auf hoch ,auch physx ...
 
Zuletzt bearbeitet:
Ich war leider noch nicht einmal in der Nähe eines Tripple Monitorings !

Ich bin dennoch davon überzeugt das die Geschichte sehr amüsant ist, sofern man nicht gerade Display's mit ausgesprochen dicken Rändern hat.

Das ändert aber leider nichts daran, das dieses System noch nicht ausgereift ist, genausowenig wie 3D Vision !

Die Tatsache das es nicht ohne frickelei in allen Games funzt, ist genauso unbefriedigend wie die nicht vorhandene offizielle Dualkarten Unterstützung. Auflösungen von 5760x1920 und mehr, brauchen mMn mehr als eine 5870 2GB. Zukunftssicher wird die 6970 2GB sicherlich auch "nur" in 5040x1050 Pixeln.

Selbst wenn es Dualkarten unterstützt wäre, würde ich mich ungern auf den CF support verlassen. Das ATI/AMD grundsätzlich auch funktionsfähige Treiber anbieten ist mir schon klar. Doch der Dual Karten support scheint meinen Eindrücken aus der Ferne, doch eher etwas schludrig bei den roten.

Was mich zu dem Schluss kommen läßt, das sich dieses Eyefinity genauso im Beta Stadium befindet wie 3d Vision, von 3D Vision surround ganz zu schweigen.

Bis man diese neuen optischen Verbesserungen wirklich empfehlen kann, gehen sicherlich noch 1-2 Jahre ins Land, wenn nicht dann mehr. In dem zeitlichen Bereich wird es aber warscheinlich schon die ersten gekrümmten AMOLED Display's in hohen Auflösungen und extremen Bildverhältnissen (21-30:10) geben, die wohl möglich auch noch ein standardisiertes perfektes 3D unterstützen.

So gesehen sind diese "Hype's" in meinen Augen Totgeburten :(
 
@Wolfgang:
Schade, dass u.a. die Frage "warum keine HD68x0 getestet wurde" noch unbeantwortet ist.
Berechtigte Zweifel, ob das Fazit noch stimmen würde gab es einige (z.B. hier #26).

@F-Hörnchen:
Thema verfehlt - hast du keinen Blog für so etwas?
 
Zuletzt bearbeitet:
AMOLED displays werden ja immer größer, gibt ja derzeit auch eins um 22" rum im Handel, aber für den Preis bekommste auch nen Golf mit Lederausstattung :D
Bis die wirklich in erschwingbare Preisregionen rutschen werden sicher noch 3-4 Jahre ins Land gehen.
also ich werds mir überlegen, mich würde aber das display alleine von Samsung reizen wegen der Pixelfehlerklasse und der langen Garantie. Mir sind hier auf meinen Monitor grade 2 Pixelfehler entstanden, und das nach 3 Jahren...

@knoxyz
Wieso ?
Es geht hier um Eyefinity, da wird man sich wohl auch mal über auf dem Markt befindliche Displays die dafür taugen unterhalten dürfen.
 
Zuletzt bearbeitet:
bawde schrieb:
wer lieber mit 3x monitor und 2x rand mitten im spiel zockt als auf einem großgerät ohne rand ist selber schuld...

Dann zeig mir mal, wie ich z.Bsp bei meinem Rennsimulator mit einem großen Bildschirm den Bereich links und rechts neben mir anzeigen lassen kann, wie z.Bsp die zum Überholen ansetzenden Autos.

Tellerrand und so.... du weißt schon. :rolleyes:

Kasmopaya schrieb:
In den meisten Games Vram Krüppeln die 1GB Karten vor sich hin. Bringts ja nicht wirklich ein Feature anzubieten und dann das versprochene nicht einhalten zu können. Wenigstens macht da die HD 6970 2GB alles richtig. Genau so stelle ich mir eine gute Eyefintiy Karte vor.

Du bringst es auf den Punkt, danke dafür!
 
1920x3600 Pixel (3 x 1920x1200) höhe mal breite/90° gedreht
5760x1200 Pixel (3 x 1920x1200) das steht im Beitrag

das stimmt eher
 
Kasmopaya schrieb:
In den meisten Games Vram Krüppeln die 1GB Karten vor sich hin. Bringts ja nicht wirklich ein Feature anzubieten und dann das versprochene nicht einhalten zu können. Wenigstens macht da die HD 6970 2GB alles richtig. Genau so stelle ich mir eine gute Eyefintiy Karte vor.

Jammerst du immer so ausdauernd rum wenn du das was du willst nicht für lau hinterhergeschmissen bekommst? Die Karten sind Massenprodukte und für ebend diese Masse reicht 1GB Speicher dicke. Wer Sonderwünsche hat muss ebend in den sauren Apfel beissen und dafür auch Sonderpreise zahlen.

Ohne FSAA reicht scheinbar in diesem Test selbst 1GB aus, lediglich solch Hardwarefressende Spiele wie Crysis Warhead und Metro 2033 brechen erst beim zuschaten vom FSAA in der hohen Auflösung weg weil der Grafikspeicher aus allen Nähten platzt. Komm jetzt bitte nicht mit HD Mods für Spiele denn die gehören ebenfalls in die Sonderwunsch Ecke.

Was auch oft genug geschrieben wurde ist die praktische Abwesenheit des vermittelten Spielerlebnisses. Es ist teils so nüchtern geschrieben das man das Gefühl hat das der Tester es nicht mal zu Gesicht bekommen hatte oder geschweige denn selbst in Spielen erlebt hatte, denn ich stelle es mir vor allem aufgrund der puren Reizüberflutung und des erweiterten eintauchens in die Spielwelt bombastisch vor...vor allem bei Simulations- und Rennspielen aber auch beim Arbeiten kann die größere Bildfläche sehr hilfreich sein.


Allgemein fehlt es mir aber vor allem auch an Details im Bezug auf die Hardwareänderungen der neuen 6000er Generation..
 
Zuletzt bearbeitet:
Zitat von Kasmopaya Beitrag anzeigen
In den meisten Games Vram Krüppeln die 1GB Karten vor sich hin. Bringts ja nicht wirklich ein Feature anzubieten und dann das versprochene nicht einhalten zu können. Wenigstens macht da die HD 6970 2GB alles richtig. Genau so stelle ich mir eine gute Eyefintiy Karte vor.

Deswegen laufen die meisten Games ja auch flüssig :rolleyes:
 
Martricks schrieb:
Man achtet eigentlich weder auf die Ränder, noch großartig auf die anderen Monitore, sondern wie immer auf den mittleren Monitor. Und genau dieses Feeling versetzt einen wesentlich tiefer ins Game.
Ich habe mir das schonmal bei einem Freund angeschaut, der auch 3 Monitore mit Eyefinity betreibt und habe mich auch selber rangesetzt und mal bissl gezockt. Genau daher kommt ja auch meine Meinung, sie ist also nicht gänzlich aus der Luft gegriffen.

Mich persönlich hat es irgendwie gestört. Denn wenn ich schon mehr von meiner Umgebung sehe, dann schaue ich mir auch alles davon an, nicht nur das eine Drittel in der Mitte.
Wie gesagt, mich persönlich hats tierisch genervt weil es für mich immer den anschein gemacht hat, dass die Gegenstände in der Umgebung immer so nen Sprung gemacht haben wenn die Linie zwischen den Monitoren passierte wurde.

Vielleicht bin ich da auch ein wenig sensibel was das angeht, kann sein.
Daher ist es ja auch meine Meinung und nicht zwingend Eure, dass ich Eyefinity im Bereich Gaming absolut blöd finde. ;) Kann ja jeder sehen wie er will.
 
Danke für den Bericht.
Endlich ein Bericht wo tatsächlich die Anschlussproblematik etwas genauer erklärt wurde. Auch das mit Adaptern ist nützlich.

Durch diesen Bericht wird bei mir eventuell demnächst Eyefinity aufgebaut :)
 
Solider Bericht, aber etwas zu dünn im Gesamten.
Eyefinity ist in erster Linie dafür da, das mehr Geschehen am Bildschirm verfolgbar ist.
Das bringt kein Beamer oder ein rießen Bildschirm.

Und die Ränder stören nach einiger Zeit gar nicht mehr, außer man redet es sich kategorisch ein wie viele User hier, dies aber selbst nie probiert haben.
 
mit Eyefinity ist AMD schon auf dem richtigen Wege.

bei Spielen/Simulationen wie Autorennen,Flugsimulatoren und Eisenbahnsimulation wären
es schon gut einsetzbar oder wird bei kommenden Spielen und Simulatoren mit berücksichtigt.

Auch zum Arbeiten unter Umständen sehr praktisch, kommen eigendlich mit 1 Monitor aus
manchmal wäre ein 2ter nicht schlecht, kann mir aber durchaus vorstellen das einige
sogar mehr als 2 Monitor "ausreizen" können und für die ist es ja ne ja ne gute Sache. MFG :)
 
Wollte mir schon lange mal eine Nvidia zulegen,doch ich möchte Eyefinity nicht mehr missen.Evtl. entscheide ich mich einmal für SLI,dass es auch dort klappt.Habe z.Bsp. von Anfang an Ruse auf 3 Monitoren gespielt,nach ein bisschen umstellen habe ich es mir mal einmal auf einem Monitor angeschaut.Ich dachte Oh Gott die Übersicht ist ja grauenvoll.Ich finde bei manchen Spielen macht die grössere Ansicht einiges her.Die "Arbeitsfläche" bei derartigen Auflösungen ist naturlich m.M.n. auch sehr von Vorteil.
 
Schlechter Test! Das muss man ganz klar sagen.

Das Erste was man sich fragt: Hat der Autor Eyefinity wirklich mal privat genutzt oder hier nur mal schnell was zusammengestoepselt um diesen Artikel zu schreiben?

Nach dem was man hier gelesen hat, kann man das wohl eindeutig mit NEIN beantworten.

Als naechstes fragt man sich, warum bei Testsystem nicht die 3 verwendeten Monitore stehen. Auch ist komisch, besonders wenn man sich die Bilder 18-28 anschaut, warum es keine Bilder der getesteten Aufloesung gibt.

Sehr schoen waere es auch gewesen, wenn sich eine 2GB GraKa im Test befunden haette. Wenn in solchen Artikel soetwas nicht mitgetestet wird, wo denn dann?

Ein weiterer grosser Kritikpunkt ist ganz klar die Auswahl der Spiele. Wer Eyefinity mal mit einem Flugsimulator testen konnte, wird solche Games nie wieder anders spielen wollen. Es ist schon sehr zweifelhaft, das sich solch ein Game erst gar nicht in eurem Parcours befindet.

Des weiteren waere es sinnvoll gewesen eine der neuen 68xx Karten mit zu testen, anstatt einer 5850 UND einer 5870 was ueberhaupt keinen zusaetzlichen Infogewinn bringt. Aber auch diese Chance wurde verpasst.
 
Leider scheint das bei CB immer mal wieder vorzukommen daß Produkte angeblich "getestet" werden, man aber den Eindruck hat das wurde nur zusammenkopiert oder gar nur als Meinung geschrieben, ohne Erfahrungswerte.
Der Test der "5770 Flex" war auch so, extra für 3+1 Monitor ausgelegt und genau das wurde nicht getestet (?).

Solche Kurztests bringen wirklich nichts, das möchte ich mal erwähnt haben. Nicht nur werden alte Ergebnisse präsentiert, es sind auch nur "alte" Karten dabei ohne Vergleichswert zu den 6er Karten (könnte sich ja was getan haben?).
Zudem...seit den 6ern sind jetzt 4-6 Monitore zu betreiben, kein Wort wie man sowas anschliesst, Adapter die man dafür benötigt uswusw.

Also...im Fazit leider ungenügend, mehr als ein Überblick ist das leider nicht geworden :(
 
erstmal zum Artikel selbst muss ich sagen, dass der nicht das gelbe vom Ei ist. Warum werden nicht Radeon Karten mit 2Gb (5870/50 und die neuen 6000er) vergleichsweise herangezogen. Gerade bei diesen Auflösungen macht das Sinn. Ich selbst besitze auch ein Eyefinity system bestehend aus 3x 26" mit jeweils 1920x1200 und einer Asus Matrix 5870 mit 2gb.
Eine HD 5000 Karte mit 2Gb zu bekommen ist ein Ding der Unmöglichkeit. Da ist nichts zu machen. Haben wir aber durchaus versucht :)

Ach ja und nur mal zur info: Eyefinity ist nicht crossfire-kompatibel!!!
Das geht ohne Probleme, siehe die HD 5970. Sagt auch AMD.

Angeblich wurden der Test mit einem LCD gemacht und die anderen beiden TFTs wurden simuliert.
Wie soll das denn gehen? Und wer hat das gesagt?

Da wird eine 3-Monitorlösung getestet, aber ich finde weder im Testsystem eine Angabe zu den 3 verwendeten Monitoren, noch gibt es irgendwo ein Foto vom Testsystem (also den Monitoren). Hat CB überhaupt 3 Monitore da?
Ist die Verschwörung mal wieder unterwegs? Glaubt uns wieder jeder, dass wir betrügen würden um irgendwas schlecht darstehen zu lassen?
Wir haben drei verschiedene Monitore von Dell, NEC und Samsung genutzt, was natürlich alles andere als Ideal ist. Das war auch ein Grund warum es keine Photos gegeben hat. Darüber hinaus ist es verdammt schwierig von sowas ordentliche Photos zu machen. Letzteres hat es zum Beispiel verhindert dem dem "Ur-Test" Photos zu machen.

Und es ist die 6800er Serie da, da kann man schon erwarten das diese auch im Test vertreten ist, aber wenn man nicht ordentlich Testen will sollte man es bleiben lassen.
Der Artikel wurde geschrieben als es die HD 6800 noch gar nicht gab, da konnten wir diese nicht groß einfließen lassen. Der hat sich dann nur unglücklicherweise ziemlich nach hinten verschoben.
Und das haben wir auch nicht nachgeholt, da sich an dem Fazit oder generell am Artikel nicht wirklich was ändern würde. Denn die HD 6800 ändert da ja nicht wirklich was. Es mag ja shln sein, dass man nun per DisplayPort noch mehr Monitore an eine Grafikkarte anschließen kann, aber es ist eben wieder nur der DisplayPort. So toll ist das Feature da irgendwie nicht. Es wäre doch viel schöner gewesen wie zum Beispiel bei der HD 5700 Flex, dass man nun generell drei Monitore unabhängig vom Anschluss betreiben kann :)

Also...im Fazit leider ungenügend, mehr als ein Überblick ist das leider nicht geworden
Der Artikel soll auch nur ein Überblick sein und eben KEIN ausführlicher Test von Eyefinity. Den haben wir eben vor einem Jahr gemacht. Da sist nur ein kleines Update.
 
Der Artikel gibt keinen aktuellen Überblick, da Eyefinity mit der HD6xx Generation schon weitere Änderungen hat. Ohne diese macht das zu diesem Zeitpunkt keinen Sinn, sondern zeigt im Gegenteil ein völlig falsches Bild. Man fragt sich wirklich wo der Sinn dieses "Berichts" liegt.
 
Zurück
Oben