News AMD stellt „Eyefinity“ für DirectX-11-Karten vor

1. stimmt
2. stimmt, da größerer Pixelabstand
3. 5342400 (3x22") vs. 4096000 (1x30")
4. somit werden die Spiele i.d.R auch gut verzerrt

Meiner Meinung nach ist maximal der Preis ein ausschlaggebendes Argument, denn nichts geht über eine große zusammenhängende Bildfläche!

Wenn die Ränder der Schirme schon gegen 0 gehen sollen, wieso dann nicht gleich ein großer Screen bestehend aus mehreren Panels?

@News:
Hoffe, dass Nvidia bald nachzieht, somit könnte ich auf meine zweite Karte verzichten! :D

Ist die hohe Auflösung dann nicht erheblich vom vRAM abhängig? Ich bezweifel jetzt mal, dass die Karten 64GB verbaut haben...
 
ich würde mich auch über einen monitor mit einem 2x gewinkeltem display aus drei 22'' panels freuen. damit müssten sich eigentlich die ränder auf ein mininum reduzieren lassen. bzw. die panels könnten direkt aneinander gesetzt werden. sind dann zwar nicht durchgängig in display, sollte aber wesentlich günstiger zu produzieren sein und zumindest für mich wäre das ein passabler kompromiss.
 
rockys82 schrieb:
desweiteren denke ich das selbst bei ein paar Jahre alten Spielen und Auflösungen von 7680x3200 Pixeln die stärksten Grafikkarten voll eingehen darunter auch die neue ATI 5000 Serie!
Naja. WoW läuft mit einer GPU in 5760x2400 ruckelfrei. HAWX läuft in 5760x2400 ruckelfrei. Dann wird 7680*3200 auch irgendwie ruckelfrei möglich sein, auch wenn es 78% mehr Pixel sind. Ältere Spiele werden also laufen, sofern man nicht gerade eine Lowend Karte von ATI nimmt^^

@myoizo: der VRam limitiert bei hohen Auflösungen längst nicht so stark, wie viele denken. AF und Co machen den größten Teil aus.
 
Zuletzt bearbeitet:
Schickes Feature

Ich hätte da ma eine Frage an die multi-monitor-pros, da ich vorhin hier etwas über Flugsimulationen mit 3 Displays gelesen hab und dem gefühl der Geschwindigkeiten durch die "Seitenfenster".

Kann man mit triple-head2go oder dieser Lösung von ATI die Monitore räumlich einrichten?
Also nicht nur seitlich aneinanderstellen um eine grössere ebene Fläche zu erhalten, sondern sagen wir mal halbkreisförmig um einen herum mit korrekter räumlicher Bilddarstellung, so dass ein Seitenfenster auch wirklich ein Seitenfenster ist?

Gruß
Raubwanze
 
H€553 schrieb:
Naja. WoW läuft mit einer GPU in 5760x2400 ruckelfrei. HAWX läuft in 5760x2400 ruckelfrei. Dann wird 7680*3200 auch irgendwie ruckelfrei möglich sein, auch wenn es 78% mehr Pixel sind. Ältere Spiele werden also laufen, sofern man nicht gerade eine Lowend Karte von ATI nimmt^^

Man "sagt" es läuft Ruckelfrei, Offiziele tests hab ich noch nicht gesehen...:rolleyes:

wird sich je zeigen wie zb das alte FarCry unter einer solchen Auflösung auf Ultra-High FPS mäßig aussieht.

Alles andere ist nur Marketing wie toll es doch sein soll und schnell, bla ich will unabhänige Tests.

CB sollte sich das anschauen mit diversen älteren Spielen bei 7***x3*** Pixeln!
 
H€553 schrieb:
AF und Co machen den größten Teil aus.

Wenn dann sind AA und davon abstammend sämtliche Modis die üblichen Verbrecher, AF ist zu vernachlässigen.
Zumal längst nicht so stark noch zu milde ausgedrückt ist.
HisN hatts mal vor einiger Zeit getestet und dann die Werte gepostet.
Die hohe Auflösung hat genausoviel Ram verbraten wie die geringe, also von daher, dürft das nicht das Problem sein.
 
Davon ausgehen ist gut...:rolleyes:

dafür gibt es hoffentlich unabhängige tests von diversen seiten ala Computerbase und Co.
 
find ich voellig unnoetig, im saemtlichen professionellen bereichen (prozessleitwarten, filmstudios,
boerse, etc.) spielts es ueberhaupt keine rolle ob man nochmal paar hundert euro mehr ausgibt fuer
die loesung von matrox zum beispiel. generell muss man sich fragen, ob jemand der sich 3 4 5 6 7
monitore leisten kann nicht auch eine der bisherigen sonderleosungen leisten kann.

ich schaetze mal das von weltweit allen rechnern vieleicht 2 3 prozent mit zwei monitoren laufen und
vieleicht 1 prozent ueberhaupt 3 oder mehr monitore am arbeitsplatz wollen/benötigen . . . das ist ein
absolutes nischen-feature, bezahlen solls aber in zukunft jeder der sich eine neue graka kauft und bei
der es automatisch mit dabei ist. sollen den scheiss lieber weg lassen und die neuen grakas dafuer 20
euro billiger machen.

abgesehen davon zeigt der trend bei monitoren doch klar in richtung groesser und hoehere aufloesung,
schaetze mal in 5 jahren sind 30" das was heute der standart 24" ist und in 10 jahren . . .

das ganze erinnert mich ein bischen an diese 90er jahre filme mit total krassen hackern die vor
4 monitoren sitzen, total futuristisch :)
 
Ich find es genial, ich will 3 x 22"-TFT´s für meinen Rennsimulator anschließen (siehe Signatur). Normal wollte ich mit dem Kauf einer Dx11-Grafikkarte gleich ein Matrox TripleHead2Go Digital für knapp 238 € holen, das Geld kann ich mir dank diesem tollen Feature sparen und statt einer Mittelklasse-Grafikkarte gleich zum größeren Modell greifen und bin vermutlich trotzdem noch günstiger dran. :)
 
myoizo schrieb:
Ist die hohe Auflösung dann nicht erheblich vom vRAM abhängig?

VRAM-Verbrauch ist AuflösungsUNabhängig.

rockys82 schrieb:
Davon ausgehen ist gut...:rolleyes:

dafür gibt es hoffentlich unabhängige tests von diversen seiten ala Computerbase und Co.

Also Anand hat gesagt:

"I played Dirt 2, a DX11 title at 7680 x 3200 and saw definitely playable frame rates"

Der Chefredakteur einer der größten Englisch-sprachigen (die größte?) IT-Websites sollte es eigentlich wissen.

Weiter hat er gesagt: "I played Left 4 Dead and the experience was much better. Obviously this new GPU is powerful, although I wouldn't expect it to run everything at super high frame rates at 7680 x 3200."

Man sollte also so ziemlich alles, was nicht Crysis heißt, vernünftig zocken können :D:freak::eek::cool_alt::king::evillol::D

iron.e schrieb:
das ist ein
absolutes nischen-feature, bezahlen solls aber in zukunft jeder der sich eine neue graka kauft und bei
der es automatisch mit dabei ist. sollen den scheiss lieber weg lassen und die neuen grakas dafuer 20
euro billiger machen.

abgesehen davon zeigt der trend bei monitoren doch klar in richtung groesser und hoehere aufloesung

Komisch das die OEMs es dann gewünscht haben?

Quelle siehe oben.

"The OEMs asked AMD for six possible outputs for DisplayPort from their notebook GPUs: up to two internally for notebook panels, up to two externally for conncetors on the side of the notebook and up to two for use via a docking station."

Also hat man noch 2 Mark mehr investiert und die Sache perfekt abgerundet, sowas nenn ich aus Scheiße Geld machen. Die paar mm Diefläche mehr machen letztendlich so gut wie keinen Preisunterschied an der Graka aus.

Zur Monitorgröße: Wieviele (PC)-Monitore (mit entsprechender Auflösung) kennst du denn, die über 30" groß sind? Und vor allem noch bezahlbar? Zudem sorgt ein größeres Bild mit höherer Auflösung nicht für mehr Sichtfläche, schon gar keine Rundumsicht.

Dagegen kann ich mir 3 von denen hier holen für 420€ !!! und hab ne Riesenleinwand.

Desweiteren gilt dieser Post:


redfirediablo schrieb:
Schade das es die meisten nicht kapieren worum es eigentlich geht.

1. 3 X 22er sind günstiger als ein 30er (!)

2. 3 X 22er haben eine größere Bildfläche als ein 30er

3. 3 X 22er haben eine deutlich höhere Auflösung als ein 30er

4. 3 X 22er können gewinkelt aufgestellt werden im Gegensatz zu einem 30 -> surround feeling

Es ist einfach meilenweit billiger für die Hersteller "kleinere" 22er Displays herzustellen als große 30er. Somit bekommt man von allem mehr zu einem geringeren Preis: Fläche, Auflösung, Surround


HD4890 schrieb:
ist es technisch realisierbar tfts rahmlos zu fertigen?

Ich sag mal, ein minimaler Rand wird sich nicht vermeiden lassen, weil die "Scheibe" ja noch irgendwo gehalten werden muss. Aber es geht mir Sicherheit noch bedeutend schmaler, als heute üblich, dann machts eigentlich nix mehr aus. Wird ja nur zur Blickwinkelerweiterung genutzt im Normalfall. Über 6 Monitore zocken, dürfte auch mit schmalem Rahmen unüblich sein, weil man dann nämlich Nackenstarre bekommt. ;)
OLEDs *könnten* da was ändern.

-Sebastian- schrieb:
das Geld kann ich mir dank diesem tollen Feature sparen und statt einer Mittelklasse-Grafikkarte gleich zum größeren Modell greifen und bin vermutlich trotzdem noch günstiger dran. :)

Das "vermutlich" kannste streichen. Startpreis der 5850 wird 210€, 5870 280€ und 5870 2GB 320€

Macht nur 100€ Aufpreis ;)

(es sei denn, du redest von der X2, aber das wär eh Overkill)
 
Zuletzt bearbeitet:
HD4890 schrieb:
ist es technisch realisierbar tfts rahmlos zu fertigen?
Wenn du das Panel an sich aus dem Monitorgehäuse ausbaust, sind da nur noch ein paar mm Rahmen vorhanden. Ganz rahmenlos geht nicht, man muss ja irgendwo die Steuerleitungen für die TFT-Matrix anklemmen.
 
Bin ja mal gespannt was sich Samung da einfallen lässt und was die Monitore dann kosten werden. Wäre eine Überlegung wert, zumindestens für den nächsten Mechwarrior Titel : D

Auf die Anwort von Nvidia bin ich auch mal gespannt, OEM Kunden haben sicherlich auch dort an die Tür geklopft.
 
KAOZNAKE schrieb:
Das "vermutlich" kannste streichen. Startpreis der 5850 wird 210€, 5870 280€ und 5870 2GB 320€

Macht nur 100€ Aufpreis ;)

(es sei denn, du redest von der X2, aber das wär eh Overkill)

Kommt drauf an, ich kauf mir die Karte nicht beim Release, ich habe Zeit und warte lieber ein wenig ab, wenn der Kühler nicht so der Brüller ist kommt dann eher eine VaporX-Variante mit mindestens 2GB rein, deswegen war ich da mit meinem "vermutlich" etwas vorsichtiger. Eine x2 kommt für mich aber wahrscheinlich nicht in Frage, auch wenn wir hier von meinem Zockerrechner reden, der aber auch als Simulator dient. :freaky:
 
Zuletzt bearbeitet:
Wenn das die Praxis auch zeigt und bei ATI endlich das AF Flimmer wegfällt,...kreigt mein gelangweilter Xeon zwei so Karten ins Brett :D
 
Endlich :-)

Jetzt kann ich beruhig meinen dritten Monitor bestellen und Ihn auf meine 2 oben drauf setzen :)

Und dann geht es an die Arbeit den Alu Rahmen zu entfernen, Sicht Balken bei mir insgesamt 2cm breit :)
Alu Rahmen selber schweißen und zack keinen streifen in der Mitte mehr, jetzt lohnt das Ausbauen auch, ohne eine Extra Lösung einzusetzen auf die ich immer verzichten wollte :)
Und nicht zu vergessen vollbild bei jeder Anwendung *sabber*

So sieht mein Projekt derzeit aus:
 

Anhänge

  • DSC04271.jpg
    DSC04271.jpg
    266,3 KB · Aufrufe: 617
Zurück
Oben