Test Test: ATi Eyefinity im Spieletest

Also wer sich für 350 Euro ne Graka kauft, wird wohl kaum am Monitor sparen. Wäre dann schon bissel rausgeschmissenes Geld. Also ich persönlich würde mir nie nen 22"-TFT für 140 Euro kaufen, und ich denke auch nicht das das einer macht der bereit ist so viel Geld für eine Graka auszugeben, denn Geiz ist nicht immer geil! Insofern ist eine Rechnung für drei Monitore für 500 Euro deutlich zu optimistisch. Zumal du günstige und zugleich lieferbare Monitore mit DisplayPort quasi nicht bekommst, wie der hier angeführte Link zeigt.
 
Zuletzt bearbeitet:
--
Schaffe89 schrieb:
@ Volker was soll bitte an einem 140 Euro 22Zoll TFT schlecht sein?
---

Antwort:
Wie wäre es mit: Sie sind zu klein / zu teuer? Für etwas mehr Geld bekomst du deutlich größere Modelle.
 
bensen

was ist los mit dir.
weißt du nicht wie man eine suchmaschiene benutzt oder was?
oder einfach nur zu faul
kannst du dir einen grund vorstellen warum ich hier einen erzählen sollte ! ?
 
Weist du nicht wie man einen Link postet? Sorry aber verlinkst selber ne Seite wo er nicht verfügbar ist und veranstaltest dann hier so einen Terz.

Bei Geizhals gibts nur 2 Händler. Einer hat ihn nicht da, und bei notebooksbilliger steht er seit 3 Wochen auf verfügbar in 6-10Tagen.
 
Ich glaub 3x 24Zoll Monitore sind doch etwas zu oversized.:D @ Hardware_Hoshi
Warum braucht man für ne super Grafikkarte immer einen möglichst großen Monitor? DAs verstehe ich nie und werds wahrscheinlich auch nie verstehen.
 
Zuletzt bearbeitet:
Schaffe89 schrieb:
...Ich glaub 3x 24Zoll Monitore sind doch etwas zu oversized.:D @ Hardware_Hoshi

So groß ist es auch nicht. Das sind ~3x60cm Diagonale senkrecht nebeneinander. Mein Fernseher, den ich auch als Monitor benutze, ist 55" und der ist 66cm hoch. Es wäre also mit der 3x24"-Lösung etwas niedriger, dafür aber breiter. Solange man sich nicht an den Rahmen dazwischen stört kann ich mir gut vorstellen, dass das auch gut aussieht.

Schaffe89 schrieb:
Warum braucht man für ne super Grafikkarte immer einen möglichst großen Monitor? DAs verstehe ich nie und werds wahrscheinlich auch nie verstehen.

Zum Vergleich einige native Auflösungen (4:3):

17 Zoll = 1.280 x 1.024
19 Zoll = 1.600 x 1.200
22 Zoll = 1.680 x 1.250
24 Zoll = 1.920 x 1.200
30 Zoll = 2.560 x 1.600 (mit Duallink-Grafikkarte)

Mehr darüber: http://www.windows-secrets.de/tuning/artikel/d/stellen-sie-die-optimale-aufloesung-fuer-ihre-tft-monitor-ein.html

Natürlich werden hier einige einwenden, selbst eine höhere Auflösung zu benutzen als hier angegeben. Je nach Hardware funktioniert das entweder oder eben nicht. Bei neueren Geräten wird das Bild dan einfach nur verzerrt dargestellt. Entweder seitlich wie ein Gummi, oder gedrückt von oben. Personen werden dann z.B. fetter. Aus diesem Grund machen Bildschirme um oder unter 22" wenig sinn, da hier entweder die oben genannten Verzerrungen auftreten bzw. das Bild von der Höhe her sehr flach, dafür ewig breit ist.

Erklärung und Rückblick:
Demnach hast du ab 24" native Full-HD Auflösung. Durch das 16:9-Breitbildformat erreicht man so native 1920x1080 Pixel (Full-HD). Vor zig Jahren hatten die Spieler 15" Bildschirme für 800x600 - lange, lange ist es her. Dann 17 Zöller mit damals leider nur 1024x768 weil die Grafikkarten selten mehr geschafft haben. Zurzeit sind diese so gut wie ausgestorben, weil 19 bis 24 Zoll derart billig geworden sind, das es fast schon weh tut, falls man an früher zurückdenkt. Heute bekommt man 26 Zöller schon für um die 200€ aufwärts. Da hat man damals nicht mal einen 17 Zöller bekommen :lol:

Warum hat man das nicht schon früher gemacht?
Erst seitdem die Grafikkarten performant geworden sind, das man teilweise sogar die Auflösungen für 30" oder höher betreiben könnte, hat sich auch das Denken in den Köpfen der Spieler/Consumer geändert. Wenn du auf niedrigen Auflösungen spielst, reicht dir ein kleinerer Monitor. Bei höheren "solltest" du entsprechend in die Hardware investieren (Grafikkarte/Bildschirm). Ich hoffe das kam so richtig rüber.

PS.
Verbessert mich bitte sachlich, sollte etwas daran falsch sein. Die vielen Änderungen und Editierungen fordern manchmal ihren Tribut :p
 
@Schaffe89

Für bestimmte Auflösungen reichen bestimmte Grafikkarten. Man geht einfach davon aus, dass sich Monsterkarten auf entsprechend großen Bildschirmen entfalten sollen.
Auf einem 19" TFT macht eine HD 5870 definitiv keinen Sinn. :freak:

1280*1024 braucht auch keine HD 4890 oder GTX 260. Da reichen im Idealfall Grafikkarten im Bereich von 8800GT bis HD 4850.
Je besser die Grafikkarte ist, desto höher/größer kann (!) die Auflösung bzw. der Bildschirm gewählt werden - ohne FPS-Nachteile, aber erhöhtem Sichtbereich-Vorteil.

Es ist einfach die Relation zwischen Auflösung <> Grafikkarte.
Die Frage "Welche Grafikkarte für meinen xx" TFT?" gibt es nicht nur ein mal im Forum. ;)


Meine persönliche Meinung: Der Bildschirm ist das wichtigste "Bauteil" an einem PC. Auf ihm sieht man das Spiel, auf ihm realisiert sich das Bild, welches von dem 1000-Euro-Rechner unter dem Schreibtisch zusammengesetzt wird. Warum kauft man sich alle paar Jahre für mehrere hundert Euro Computerbauteile und lässt die Ausgabe von einem billigbillig TN Bildschirm verunstalten.
Wenn ich die Bildqualität hochschraube (schnelle Grafikkarte), dann will ich das auch in den schönsten Farben sehen, am besten noch von allen Seiten.
Und jetzt kommt Eyefinity (oder die Matrox-Lösung) ins Spiel: Was ist besser als ein geiles Bild? Ein großes, geiles Bild! :D
 
Zuletzt bearbeitet:
Auf einem 19" TFT macht eine HD 5870 definitiv keinen Sinn.

Für SSAA aber z.B. unbedingt, würde ich mal meinen. Der Schritt bzw. Unterschied im Berechnungsaufwand von 1280x0124 auf 1680x1050 (also von 19 auf 22 Zoll) ist da zudem sowieso nicht mehr groß. Und für AA/AF sowie AAA kann man ebenfalls nie genug Leistung haben. Sprich: wenn man möchte, bekommt man z.Z. mit einschlägigen Spielen jede Grafikkarte klein, wenn auf bestimmte Quali-Einstellungen Wert legt.

Ansonsten: bitte wieder näher beim Thema bleiben.
 
Hardware_Hoshi schrieb:
Der Markt wird darauf nicht reagieren, weil er nicht groß genug ist. Der Industrie geht das daher am Arsch vorbei.

Lustigerweise ist die "Industrie" zu AMD "gegangen" und hat gefragt, ob man nicht 6 Monitorausgänge realisieren könnte (war eher für Laptops gedacht lustigerweise). AMD hat sich dann einfach gedacht, das man das ja ganz einfach auf die Desktop-Grakas übertragen könnte-->Eyefinity

Das Wachstum der Monitorauflösung kann schon lange nicht mehr mit der Zunahme der Geschwindigkeit von Grakas mithalten. Dazu kommen noch die Konsolen, die maximal mit FullHD klarkommen müssen und generell grafisch viel schwächer sind als ein moderner PC.

Also muss man sich was einfallen lassen, um die Leute zum Kauf einer neuen, schnellereren Graka zu motivieren. Denn vielen reicht einfach mittlerweile ne 8800GT/3870/4850/GTS250.

Hardware_Hoshi schrieb:
Mulitmonitoring ist schon seit Jahrzehnten "in", aber es war noch nie billig. TFTs sind nicht gerade ein Produkt, wo man 3 zum Preis von 2 bekommt.

Wenn man sich die Entwicklung der Monitorpreise über die letzten Jahre anschaut, bekommt man mittlerweile schon 3 zum Preis von 1 (ohne DisplayP jetzte). Ab 130€ gehen vernünftige 22"er los, da konnte man vor einigen Jahren nur von Träumen.

Selbst mit DP hab ichs ja schon mal vorgerechnet.

700€ inklusive 5850 für 200€ (wenn mal verfügbar), 2 günstige 22" und ein DP-22" (wenn mal verfügbar)

NVIDIA wollte vor nicht allzu langer Zeit 550-600€ für EINE GTX280. Ich seh das Geldproblem ehrlich gesagt nicht wirklich.

Hardware_Hoshi schrieb:
Das hat mich gerade einmal interessiert. Auf Youtube habe ich ein englisches Tutorial gefunden, wie man Eyefinity einstellt.

Mir ist aufgefallen, dass er nur 60Hz einstellt. Anfangs habe ich mich gewundert warum, aber ich denke viel höher kann man einfach nicht gehen. Für den 0815-Gamer wird das nicht stören, da die egal in welcher Auflösung eh nie über 75Hz kommen.

Wenn man allerdings einen hochwertigen Display hat, kann man teilweise bis 100Hz gehen. Ab 26 Zoll und teilweise sogar schon darunter hat man bereits viele Geräte die dies können. Flimmerfrei spielen ist eine anzustrebende Art und schont die Augen.

1920x1080 Full-HD kann man meines Wissens nach noch mit 100Hz ansteuern. Jedoch habe ich noch keine Informationen entdecken können, ob es höher geht. Bei diesen absurd hohen Auflösungen würde mich zumindest einmal interessieren.

Du hast zwar Hardware im Namen, aber so richtig Ahnung hast du irgendwie nicht, wie mir scheint. Is jetzt nicht bös gemeint, zumindest bringst du einiges durcheinander.

1. Warum der "nur" 60Hz einstellt: Das ist die absolut gängige Bildwiederholrate von TFTs und eigentlich auch absolut ausreichend. Mehr geht einfach nicht einzustellen, weils die Monitore nicht können. Einige können 75Hz, die für 3DVision optimierten 120Hz, wobei bei Nutzung von 3D sich das ganze wieder auf 60Hz halbiert.

2. ist die Frequenz nicht von der Auflösung abhängig, jedenfalls nicht so wie du glaubst. Also eine höhere Auflösung bedeutet keinesfalls eine höhere Bildwiederholrate/Frequenz. Das hängt einfach vom Monitor ab.

3. Flimmern gibts bei TFTs nicht. Nicht mit 120Hz und auch nicht mit 60Hz. Flimmern "tun" nur CRTs. Was anderes ist Flimmern in Computerspielen, das liegt aber nicht am Monitor, sondern am Computerspiel. Wenn das Spiel bzw. die Graka zum Flimmern neigt, hilft dir auch der teuerste Monitor nix. Der leitet das genauso nur weiter bzw. zeigts an.

4. FullHD und 100Hz oder sogar 200Hz funktioniert nur beim Fernsehen. Da werden vom Fernseher (nicht vorhandene) Zwischenbilder berechnet. Das funktioniert beim Computerspiel aber nicht, bzw. ist sinnlos (weil das die Graka machen müsste und außerdem das vorher/nachher-Bild bekannt sein müsste)

Noch was zu EF: Da wird das Bild nicht "gestreckt" wie du immer wieder meinst. Links und rechts kommt mehr Bildinformation dazu. Das Bild bleibt also genauso hoch wie bei einem Monitor und unverzerrt.

Volker schrieb:
Also ich persönlich würde mir nie nen 22"-TFT für 140 Euro kaufen, und ich denke auch nicht das das einer macht der bereit ist so viel Geld für eine Graka auszugeben, denn Geiz ist nicht immer geil!

Kann ich jetzt nicht nachvollziehen?!? Viele 140€ TFTs sind heutzutage besser, als ein 300 oder 400€ TFT von vor 3 Jahren!

Die Technik bleibt halt nicht stehen, ne 100€ 4850 ist doch auch viel besser als ne (früher) 600€ X800XT.

ICH würde meinen IIYAMA 22"E2200 ohne mit der Wimper zu zucken gegen z.B. den LG hier eintauschen.

Also angenommen, ich würd mir EF zulegen, würd ich meinen IIYAMA verkloppen und zwei von den LG nehmen+einen DP-Monitor.
 
KAOZNAKE schrieb:
@Hardware_Hoshi....
Du hast zwar Hardware im Namen, aber so richtig Ahnung hast du irgendwie nicht, wie mir scheint. Is jetzt nicht bös gemeint, zumindest bringst du einiges durcheinander.

Sagen wir so, "Hardware" ist ein weitläufiger Begriff, und ich bin auch nur ein Hoshi - also ein Freund/Kumpel von Hardware. Wenn sie gut ist, um so besser :lol:

KAOZNAKE schrieb:
1. Warum der "nur" 60Hz einstellt: Das ist die absolut gängige Bildwiederholrate von TFTs und eigentlich auch absolut ausreichend. Mehr geht einfach nicht einzustellen, weils die Monitore nicht können. Einige können 75Hz, die für 3DVision optimierten 120Hz, wobei bei Nutzung von 3D sich das ganze wieder auf 60Hz halbiert.

Es ist wahr, dass alle Geräte "nur" 60Hz können. Sämtliche Geräte haben genau 60Hz, alles darüber ist hochskaliert. Aus diesem Grund kann man auch keine 3DVision anschließen, weil die 2x 60Hz, also insgesamt 120Hz braucht (jeweils die Hälfte für rechts und links).

KAOZNAKE schrieb:
2. ist die Frequenz nicht von der Auflösung abhängig, jedenfalls nicht so wie du glaubst. Also eine höhere Auflösung bedeutet keinesfalls eine höhere Bildwiederholrate/Frequenz. Das hängt einfach vom Monitor ab.

Ich glaube eher es hängt entweder mit Grafikkarte oder Bildschirm zusammen. Nach einigen hundert Installationen war es meistens so, dass die niederen Auflösungen zwischen 75 und 80Hz möglich waren. Bei mitleren bis hohen Auflösungen gingen später nur 60Hz. Es ist nur eine Feststellung, weiter nichts.

KAOZNAKE schrieb:
3. Flimmern gibts bei TFTs nicht. Nicht mit 120Hz und auch nicht mit 60Hz. Flimmern "tun" nur CRTs. Was anderes ist Flimmern in Computerspielen, das liegt aber nicht am Monitor, sondern am Computerspiel. Wenn das Spiel bzw. die Graka zum Flimmern neigt, hilft dir auch der teuerste Monitor nix. Der leitet das genauso nur weiter bzw. zeigts an.

Das es das Flimmern in TFTs nicht mehr gibt, ist logisch, da die Zeile nicht mehr einzeln aufgebaut werden, sondern gleich das ganze Bild. Flachbildschirme auf TFT-basis haben aber die unangenehme Angewohnheit "nachzuschmieren". Dieser Makel ist vor allem in älteren Generationen der TFTs zu sehen. Die neuen Technologien haben es halbwegs im Griff und dazu gehören auch die 100Hz+ Techniken. Es sind vorallem Tricks, die dazu helfen. Bei manchen Menschen funktioniert es, bei anderen widerum nicht. Es ist ähnlich wie bei den Mikrorucklern (wobei diese hier von mir als Ja-/Nein-Beispiel genannt wurden, damit man das versteht!!!).

KAOZNAKE schrieb:
4. FullHD und 100Hz oder sogar 200Hz funktioniert nur beim Fernsehen. Da werden vom Fernseher (nicht vorhandene) Zwischenbilder berechnet. Das funktioniert beim Computerspiel aber nicht, bzw. ist sinnlos (weil das die Graka machen müsste und außerdem das vorher/nachher-Bild bekannt sein müsste)

Also für mich sind 26 Zoll oder Größer bereits ein Fernseher und sehr viele dieser Modelle haben entsprechende Technologien. Es gibt durchaus Geräte, die das bereits mitbringen. Bei FullHD sowiso. Ich wüsste jetzt nicht ein Gerät, dass diese Kombination nicht mitbringt.

Zum Thema: Bei Computerspielen geht dies nicht...

Warum sollte es denn nicht gehen? Ich kenne aus der Fernsehtechnik Fälle, in denen der Fernseher einiges aus einer Quelle herausholt - meistens zum Besseren. Dazu braucht man keine Grafikkarte, die zwischenberechnungen macht. Das erledigt zum Größten Teil der Empfänger (LCD/TFT/Plasma).

Egal ob Computerspiel oder Film, alles wird nur von A nach B übertragen. Die Steuerung dafür erledigt allerdings bei Computerhardware 1. das Betriebssystem / 2. das interne Bios der Hardware und 3. der Treiber. Wie gut das bei Eyefinity zusammenspielt muss man in weitläufigen Tests erst einmal in Erfahrung bringen. Das möchte ich aber aufgrund der Komplexität keinem Redakteur zumuten.


Primär erreicht man mit einer Multimonitorlösung erst einmal folgendes: Die Auflösung wird überdimensional größer, dafür leidet aber die Bildqualität --> weniger bis kein AF/AA etc. Sie dir doch nur einmal an, wie in diesem Test die Werte ruckartig in den unspielbaren Bereich gehen wenn AA/AF höher als 1 gesetzt wird. Das sind Karten der 5800er, also das neueste auf dem Markt. Eyefinity wird nicht umsonst nur auf den neuen Grafikkarten angeboten. Die älteren hätten dafür nicht die Leistung und zweitens würde es den Umsatz wahrscheinlich schmälern.

KAOZNAKE schrieb:
Noch was zu EF: Da wird das Bild nicht "gestreckt" wie du immer wieder meinst. Links und rechts kommt mehr Bildinformation dazu. Das Bild bleibt also genauso hoch wie bei einem Monitor und unverzerrt.

Du widersprichst dir leider selbst, mein Guter. Wenn Bilder rechts und links dazu kommen, aber die Höhe unverändert bleibt, wird doch das bild zur Seite hin gestreckt, da das Verhältnis verändert wurde. Ich nenne das den "Visir-Effekt". Bei mehr als einem Monitor tritt dieser Effekt auf. Erst bei einem echten Quadrat / Rechteck von beispielsweise 4 oder 6 Bildschirmen würde es sich wieder ausgleichen (2x2 übereinander oder 2x3 übereinander). Bei 2,3 oder 5 hingegen nicht.

KAOZNAKE schrieb:
Kann ich jetzt nicht nachvollziehen?!? Viele 140€ TFTs sind heutzutage besser, als ein 300 oder 400€ TFT von vor 3 Jahren! Die Technik bleibt halt nicht stehen, ne 100€ 4850 ist doch auch viel besser als ne (früher) 600€ X800XT.

Abgeleitet von dir: Ein 1000€ Fernseher ist (technischn) besser als einer mit 140€. Nur leider besitzt das 140€-Modell keine Pivot-Funktion um das 16:9 Breitbild auszugleichen.

KAOZNAKE schrieb:
ICH würde meinen IIYAMA 22"E2200 ohne mit der Wimper zu zucken gegen z.B. den LG hier eintauschen.

Also angenommen, ich würd mir EF zulegen, würd ich meinen IIYAMA verkloppen und zwei von den LG nehmen+einen DP-Monitor.

Eyefinity dürfte immer ein wenig Teurer werden. Zwischen 400 bis 600€ sollte man rechnen und ab diesem Betrag fangen schon die Großbildfernseher an. Als Neuanschaffung lohnt sich Eyefinity was die Kosten angeht nicht unbedingt. Sollte man aber in der Lage sein, drei oder mehr gleiche Geräte gebraucht zu besorgen, stelle ich mir das lohnenswert vor.

Großes Edit:
Es geht nicht nur um die Bildwiederholfrequenz (Hz), sondern um das zusammenspiel der Großen drei:

1. Frames pro Sekunde (FPS)
2. Bildwiederholfrequenz (Hz)
3. Reaktionszeit (ms)

Da es jetzt um Monitore oder Bildschirme geht, müssen wir Spieler uns demnächst hiermit beschäftigen:

- Was passiert, wenn man unterschiedliche Monitore mit unterschiedlicher Technik / Reaktionszeit besitzt?
---> gibt es dann eine neue Art von Mikrorucklern?

- Hat eine höhere Hertzzahl Einfluss auf die Übergänge in den Frameverläufen? Min/Max/Average-FPS?

Für eine mögliche Investition in mehreren Hunderterbereichen ist das definitiv interessant und wissenswert.
 
Zuletzt bearbeitet:
Hardware_Hoshi schrieb:
Ich glaube eher es hängt entweder mit Grafikkarte oder Bildschirm zusammen. Nach einigen hundert Installationen war es meistens so, dass die niederen Auflösungen zwischen 75 und 80Hz möglich waren. Bei mitleren bis hohen Auflösungen gingen später nur 60Hz. Es ist nur eine Feststellung, weiter nichts.

Diese Feststellung ist soweit auch richtig. Das hat etwas mit der Datenrate am Ausgang zu tun. Der entscheidende Faktor ist dabei der Pixeltakt, der sich grob aus (Bildwiederholrate*Höhe*Breite)+10%Aufschlag berechnet. Bei VGA-Ausgängen ist dann immer die RAMDAC-Geschwindigkeit angegeben, was maximal möglich ist. Die digitalen Ausgänge wie DVI haben aber auch ihre festen Grenzen.


Hardware_Hoshi schrieb:
- Was passiert, wenn man unterschiedliche Monitore mit unterschiedlicher Technik / Reaktionszeit besitzt?
---> gibt es dann eine neue Art von Mikrorucklern?

Da die Monitore unabhängig voneinander laufen sollte das keine Probleme geben. Höchstens das man selbst den Unterschied zwischen den 2 Bildern etwas merkt und als "unschön" empfindet.

Hardware_Hoshi schrieb:
- Hat eine höhere Hertzzahl Einfluss auf die Übergänge in den Frameverläufen? Min/Max/Average-FPS?

Wenn man auf Qualität setzt und V-Sync aktiviert um keine Versatzlinien aufgrund unvollständiger Bilder zu bekommen, dann limitiert die Bildwiederholrate die maximal möglichen FPS. Ohne V-Sync ist es egal (außer bei uralten DRAM-Grafikkarten wo man die Belastung durch den RAMDAC an der Performance merkt... aber die Zeiten sind lange vorbei)
 
Hochskaliert ist da nichts. Wenn ein Monitor 60, 75,100 Hertz hat, dann hat er diese auch.
Außer man kauft in der Tschechei ein.

Hardware_Hoshi schrieb:
Was passiert, wenn man unterschiedliche Monitore mit unterschiedlicher Technik / Reaktionszeit besitzt?
---> gibt es dann eine neue Art von Mikrorucklern?

Die Werbung mancher Bildschirmhersteller 2ms Reaktionszeit auf ihren TFT´s zu haben stellt sich in der Praxis oft als Lüge dar.
BTW siehst du da keine Ruckler da ein Mensch eine Unterschiedliche Reaktionszeit von 6ms oder 10ms niemals warnehmen kann.
Hertz haben überhaupt keinen Einsfluss auf Frameverläufe. Der Bildschirm kann halt einfach nicht mehr Bilder pro Sekunde darstellen, auch wenn x angezeigt werden.
 
Zuletzt bearbeitet:
Hardware_Hoshi schrieb:
Sagen wir so, "Hardware" ist ein weitläufiger Begriff, und ich bin auch nur ein Hoshi - also ein Freund/Kumpel von Hardware. Wenn sie gut ist, um so besser :lol:

Du sagst es ;)

Hardware_Hoshi schrieb:
Es ist wahr, dass alle Geräte "nur" 60Hz können. Sämtliche Geräte haben genau 60Hz, alles darüber ist hochskaliert. Aus diesem Grund kann man auch keine 3DVision anschließen, weil die 2x 60Hz, also insgesamt 120Hz braucht (jeweils die Hälfte für rechts und links).

Nee nee, da wird nix skaliert. Ein Gerät das max. 60Hz kann, kann auch nur 60Hz. Das kann auch nix hoch skalieren. Bei Fernsehern wird „getrickst“ sozusagen, später mehr.
3DVision geht im Prinzip auch mit 60Hz Monitoren, da das aber mit Shutter-Technik funktioniert IMO, würde man das Flimmern bemerken.

Hardware_Hoshi schrieb:
Ich glaube eher es hängt entweder mit Grafikkarte oder Bildschirm zusammen. Nach einigen hundert Installationen war es meistens so, dass die niederen Auflösungen zwischen 75 und 80Hz möglich waren. Bei mitleren bis hohen Auflösungen gingen später nur 60Hz. Es ist nur eine Feststellung, weiter nichts.

Im Prinzip beides. Die Graka hat bei ner bestimmten Auflösung ne maximale Frequenz, genau wie der Monitor ne maximale Frequenz hat. Deswegen geht 3DVision auch nicht bei 30“, weil die Grakas bei 2560x1600 alle nur noch 60Hz packen. Da hilft dir auch kein 120Hz Monitor mehr ;) Bei CRTs kann man bei niedriger Auflösung mehr Hz einstellen, das stimmt. Je höher die Auflösung, desto weniger wird das. Hat aber ehrlich gesagt keine Vorteile, weil die TFTs wie gesagt eh nicht mehr flimmern.

Hardware_Hoshi schrieb:
Das es das Flimmern in TFTs nicht mehr gibt, ist logisch, da die Zeile nicht mehr einzeln aufgebaut werden, sondern gleich das ganze Bild. Flachbildschirme auf TFT-basis haben aber die unangenehme Angewohnheit "nachzuschmieren". Dieser Makel ist vor allem in älteren Generationen der TFTs zu sehen. Die neuen Technologien haben es halbwegs im Griff und dazu gehören auch die 100Hz+ Techniken.

Es ging mir nur darum, weil du explizit vom Flimmern gesprochen hast. Ich glaube, den Nachzieheffekt sieht heute kein Mensch mehr, ich will mich da aber auch nicht zu weit ausm Fenster lehnen. Ghosting ist da schon eher ein Problem. Wenn du dich bei 100Hz+ Techniken auf Fernseher beziehst, magst du Recht haben, bei Computerspielen funktioniert das wie gesagt nicht, später mehr.


Hardware_Hoshi schrieb:
Zum Thema: Bei Computerspielen geht dies nicht...

Warum sollte es denn nicht gehen? Ich kenne aus der Fernsehtechnik Fälle, in denen der Fernseher einiges aus einer Quelle herausholt - meistens zum Besseren. Dazu braucht man keine Grafikkarte, die zwischenberechnungen macht. Das erledigt zum Größten Teil der Empfänger (LCD/TFT/Plasma).

ALSO: Bei uns in Europa gibt’s PAL. Da wird das Fernsehbild in 25 Bildern/s ausgestrahlt. Allerdings interlaced, also Halbbilder. Macht 50Hz. Fernseher berechnen daraus 100 Bilder (Hz) oder auch 200 mittlerweile. Wie das geht? Der Fernseher „kennt“ Bild 1 und Bild 2 bereits, bevor wir es sehen. Während er also Bild 1 ausstrahlt, berechnet er vor der Ausstrahlung von Bild 2 noch das Bild 1a und sendet das noch vor Bild 2. Er „erfndet“ also Bilder, die gar nicht da sind bzw. vorher nicht aufgenommen wurden. Das geht auch, weil die Bilder in einer festen (zeitlichen) Reihenfolge ablaufen (eben 25/s)

Beim Computerspiel funktioniert das logischerweise nicht, weil die Graka nur so schnell Bilder berechnen kann, wie sie es eben kann. Davon Zwischenbilder berechnen ist ja sinnlos, weil dann könnte man es ja gleich richtig machen. Zudem sind PC-Spiele mal schneller (fps), mal langsamer. Und die Bildberechnung ist *wesentlich* aufwendiger. Stichwort Echtzeit-Berechnung.

Hardware_Hoshi schrieb:
Egal ob Computerspiel oder Film, alles wird nur von A nach B übertragen. Die Steuerung dafür erledigt allerdings bei Computerhardware 1. das Betriebssystem / 2. das interne Bios der Hardware und 3. der Treiber. Wie gut das bei Eyefinity zusammenspielt muss man in weitläufigen Tests erst einmal in Erfahrung bringen.

Das ist ja das geile an Eyefinity. Es funktioniert einfach. Das BS denkt, es hat einen(!) Riesenmonitor vor sich, von der Seite also keine Probleme. Dem Treiber ist das auch völlig egal, er muss nur die Auflösung einstellen. Das einzige wos haken kann, sind die Spiele selber, weil sie die Auflösung nicht unterstützen. Man hat also NULL Probleme, solange die Software mitspielt.

Hardware_Hoshi schrieb:
Primär erreicht man mit einer Multimonitorlösung erst einmal folgendes: Die Auflösung wird überdimensional größer, dafür leidet aber die Bildqualität --> weniger bis kein AF/AA etc. Sie dir doch nur einmal an, wie in diesem Test die Werte ruckartig in den unspielbaren Bereich gehen wenn AA/AF höher als 1 gesetzt wird. Das sind Karten der 5800er, also das neueste auf dem Markt.

1. Gibt’s ja auch weniger fordernde Spiele, 2. kann man auch den einen oder anderen Regler zurückdrehen, ohne viel Bildqualität einzubüßen. Ich hab da lieber ein intensiveres Spielerlebnis. Die Grakas werden jedes Jahr schneller, bei der Bildschirmauflösung ist man aber erstmal an der Grenze angekommen. Wenn jeder 2. nen 30“er zu Hause hat, können wir weitereden, vorerst wird man sich mit Eyefinity „behelfen“ müssen, wenn man die Power auch nutzen möchte.

Hardware_Hoshi schrieb:
Du widersprichst dir leider selbst, mein Guter. Wenn Bilder rechts und links dazu kommen, aber die Höhe unverändert bleibt, wird doch das bild zur Seite hin gestreckt, da das Verhältnis verändert wurde. Ich nenne das den "Visir-Effekt". Bei mehr als einem Monitor tritt dieser Effekt auf. Erst bei einem echten Quadrat / Rechteck von beispielsweise 4 oder 6 Bildschirmen würde es sich wieder ausgleichen (2x2 übereinander oder 2x3 übereinander). Bei 2,3 oder 5 hingegen nicht.

Ich glaube, hier liegt ein klassischer Fall von Missverständnis vor. Ich verstehe unter einem verzerrten Bild, das man beispielweise statt einem Kreis eine Ellipse hat. Das passiert aber bei Eyefinity nicht. Der Kreis bleibt ein Kreis. Und links und rechts kannst du dir je noch einen anzeigen lassen. Das ist so, als ob du neben deinem einem Wohnzimmerfenster noch links und rechts ein Loch in die Wand haust. Im mittleren Fenster siehst du das gleiche wie vorher, aber links und rechts eben deutlich mehr. Wenn auch nur ausm Augenwinkel vielleicht.

Hardware_Hoshi schrieb:
Eyefinity dürfte immer ein wenig Teurer werden. Zwischen 400 bis 600€ sollte man rechnen und ab diesem Betrag fangen schon die Großbildfernseher an. Als Neuanschaffung lohnt sich Eyefinity was die Kosten angeht nicht unbedingt. Sollte man aber in der Lage sein, drei oder mehr gleiche Geräte gebraucht zu besorgen, stelle ich mir das lohnenswert vor.

Klar kann sich auch n 50“er aufn Schreibtisch stellen, damit erreicht man aber immer noch nicht den zusätzlichen Sichteffekt. Wenn man Lust und Laune hat, kann man ja 3 50“er nehmen :evillol:

Wie gesagt, in Anbetracht was die Monitore und Grakas nur noch kosten, kann sich im Prinzip jeder, der schon mal ne 8800GTX gekauft hat, sich das Zeug ranholen, viel teurer ist es nicht. Gibt teurere Hobbys, erst letztens jemand gesehen, der hatte nen Miniatur-Düsenjet für 10.000€ :freak:

(Aber geil!)


Hardware_Hoshi schrieb:
- Was passiert, wenn man unterschiedliche Monitore mit unterschiedlicher Technik / Reaktionszeit besitzt?
---> gibt es dann eine neue Art von Mikrorucklern?

Sollte man natürlich vermeiden, in Anbetracht der Display-Port Problematik wird es sich nicht ganz vermeiden lassen, zumindest 1 anderen Monitor zu verwenden. Allerings seh ich das nicht so eng. Reaktionszeit ist eigentlich kein Thema heutzutage (Beim Inputlag sieht die Sache schon wieder anders aus). Die fps kommen an jedem Monitor gleich schnell an, also auch kein Thema. Freuquenz ist auch kein Thema, einfach überall 60Hz drauf knallen.
 
Hochskaliert wird nur bei TV- Bildschirmen. Also Fernsehen. Bei Gamesist dies nicht der Fall.
Edit: Zu Spät.^^ bzw. übersehen @ KAOZNAKE
 
Ich weiß, ich weiß. Eine HD5750 mit 512MB ist eigentlich viel zu schwach für aktuelle Spiele im Eyefinity Format. Aber trotzdem würde mich mal brennend interessieren wie sich eine HD5750 mit 512MB gegen eine mit 1024MB bei den hohen Auflösungen (Triple 22" 5040x1050 oder Triple 24" 5760x1200) ohne AA schlägt. Normalerweise brechen die kleinen Versionen ja erst bei AA richtig ein. Aber wie ist das bei solchen wahnwitzigen Auflösungen ohne AA? Kann dazu leider keine Benches finden.
 
Hallo,

ich habe eine Frage.

Eine 5870 kann ja 3 Bildschirme ansteuern, allerdings 2 über DVi und der dritte muss über HDMI oder Displayport angesteckt werden. Muss der Monitor(der über HDMI oder Displayport läuft) direkt HDMI oder Displayport besitzen oder darf der auch über einen Adapter auf DVI laufen?


Grüße
 
Zurück
Oben