News AMD stellt „Eyefinity“ für DirectX-11-Karten vor

Naja. Wenn die theoretische Leistungssteigerung der praktischen entspricht, dann muss der G300 nicht mals ein Rohrkrepierer werden um Prbleme zu bekommen. Dann wär der G300 auch bei einer 100%igen Leistungssteigerung die HD 5870 schneller, als die GTX 380.
 
Ich verstehe das gemotze wegen den Monitorrändern nicht, aber irgendwas muss man halt schlecht reden wenn ein Produkt gut ist. :) Selbst wenn AMDATI dafür nichts kann dass Monitore nunmal so gebaut werden.

Beklagt euch bei BenQ, Samsung, LG, HP, Dell, Belinea, Eizo, iiyama, Philips, usw.
 
Ich verstehe nicht, warum Samsung den Bildschirmrahmen nicht aus Acryl o.ä. fertigt. Dann hätte sich das Problem mit den schwarzen Rändern auch erledigt. ;)

Es mag ja sein, dass es in der Industrie/Beruf Szenarien gibt wo zwölf Bildschirme von Nutzen sein könnten. ABER: Auf den Beispielbildern sehe ich In-Game-Szenen und somit dürfte klar sein worauf ATI hier abziehlt. Richtig ! Dem Nimmersatten Gamer und Kiddie der jetzt wieder was findet um sich von seinen Kumpels abzuheben. ;)

Zudem finde ich "Eyefinitiy" sowohl in Ökonomischer als auch Ökoligischer Hinsicht völlig daneben.
Ein 22-Zoll-Tft genehmigt sich schon ca. 25 Watt im Betrieb. Das macht Summa summarum 300 Watt bei zwölf Bildschirmen. Dazu kommen noch die Anschaffungskosten von mindestens 1800,- Euro für zwölf Bildschirme, wenn man 150,- Euro pro Bildschirm zugrunde legt. :freak:

O.K., man kan natürlich erstmal klein anfangen indem man nur sechs Bildschirme nimmt. Aufrüsten kann man später ja immer noch !^^ :lol:
 
@Respekt: Wie sollen sich sonst die ganzen Nvidia Fanboys rechtfertigen? Die Grafikkarten von AMD scheinen performat zu werden bei einem geringem Stromverbrauch. Wenn es an dem Produkt selbst nichts zu meckern gibt muss man sich also Produktexterne Punkte suchen (Bildschirmränder), oder behaupten, dass einige Funktionen der Grafikkarte niemand braucht (auch wenn sich in diesem Fall mehrere Leute schon gemeldet haben, die die Funktion nutzen wollen).

Oder man beschwert sich bei einem Entusiastenprodukt über den Kaufpreis oder den Stromverbrauch.
@rumpel02: Man kann auch weniger Bildschirme nutzen. Außerdem macht e ökonomisch mehr sinn sich die Grafikkarte zu kaufen, als eine andere Grafikkarte und noch für weit über 100€ ein Dual/TrippleHead2Go, welches nicht ansatzweise die Leistung hat und noch zusätzlich Strom schluckt.

Wie ging noch mal der Spruch? Es gibt keine Möglichkeit Worte über Kabel zu übertragen und wenn es sie gibt, dann sehe ich keinen Sinn darin. (oder so ähnlich. Vom Inhalt aber genau so^^)
 
Zuletzt bearbeitet:
Was hat das mit leistung oder Fanboy gehabe zu tun...

die Idee ist nicht schlecht gibt es aber schon lange aber die ganzen Ränder der TFT's etc stören nunmal das Bild!

Es ist sicher möglich einen TFT zu Produzieren der keinen rand hat oder nur 1mm ist er halt Tiefer aber so könnte man sie sinnvoll Kombinieren.

Für mich ist die lösung von grundher NOGO mit den Rändern also lieber einen TFT der 3m breit wie hoch ist als 10 einzelne der dann auch 8000x8000 kann!
 
viele stellen es hier aber so dar, als ob es ein Fehler von Seiten AMD sei und als ob es keine Anwendungsmöglichkeiten dafür gäbe. Und wenn doch einer die Möglichkeit betrachtet ein TrippleHead System zu nutzen wird die Vorstellung der 20mm Ränder so abstrus, dass sie gleich wieder wettern, dass keiner so etwas nutzen will.
 
volcem schrieb:
Endlich :-)

Jetzt kann ich beruhig meinen dritten Monitor bestellen und Ihn auf meine 2 oben drauf setzen :)
ich würd ihn daneben basteln. wie groß war der aufwand die teile auseinander zu bauen und halbwegs sicher in den holzrahmen zu packen? hast du in der mitte noch ein alu-profil?

würde das ganze eher so an ordnen:

asdfrv.png
 
Das sind welche die kein Plan haben... als Privatanwender ist es für mich absolut störend.

Für Firmen oder Flughafenanzeigen und ähnliches sicher interessant, kein Arsch schaut da auf die Balken hauptsache man kann alles schön groß ablesen.

Aber ich Persönlich und sicher auch viele andere bevorzugen ein großes Display mit entsprechenden Auflösungen.
Sicher kommen in den nächsten 5-10 Jahren TFT's mit solchen Auflösungen a 7640x3200 uso in breiten und höhen wie 12 kleine TFT's zum vernünftigen Preis.

Ich bezweifel das sich das großflächig beim Privaten Heimanwender durchsetzen wird, eine Innovation ist es aber 100%ig ob NV was ähnliches bringt wird sich zeigen!
 
3 teraflops? dann wäre sie ja theoretisch 3mal so schnell wie ein RV770?

das wäre der wahnsinn.


gruß
 
Schinzie schrieb:
3 teraflops? dann wäre sie ja theoretisch 3mal so schnell wie ein RV770?

das wäre der wahnsinn.


gruß

Der RV770 hat auf der HD 4870 1,2 Teraflops. Die Radeon HD 4890 mit dem RV790 übrigens auf 1,36 Teraflops.
Wenn der RV870 mit 850 MHz taktet und 1600 "SPs" besitzt, dann kommt man auf eine theoretisch Rechenleistung von 2,72 Teraflops (steht auch auf der Folie).
Also von dreimal so schnell ist man noch ein Stück entfernt. ;)
 
Nett. Den Sinn durchschaue ich im Hinblick auf Beamer und immer günstige HD-Riesen-TVs jedoch nicht ganz.
 
Eyefinity soll wohl der Counterpart von 3D Vision sein? Ich seh da so einige Punkte die mir gar nicht gefallen.

1. Preis der Monitore, das dürfte dann der zig Fache Preis eines 3D Monitors für 3D Vision sein.
2. Gute Displays ohne Rahmen müssen erst noch auf den Markt gebracht werden
3. Man braucht einen gewissen Abstand zu den Monitoren sonst sieht man wieder nur in die Mitte und man hat einen Tunnelblick der sogar das Sichtfeld einschränkt
left4dead.jpg

4. Warum nicht einfach einen großen LCD, ok der hat nicht die extreme Auflösung, aber er ist günstiger, braucht weniger Strom, und man hat auch ein sehr großes Bild
5. Der Stromverbrauch von zig Displays dürfte die ganze Bude aufwärmen -> Sauna
6. Bei der extremen Auflösung bricht dir eine HD 5000 Garantiert ein wenn man Kantenglättung anmacht. Erst recht doppelt und dreifach mit nur 1GB Vram, und vorerst gibts nur die Version
7. Man kann sich nicht die billigsten Monitore kaufen, die Winkelabhängigkeit würde die Monitore am Rand unbrauchbar machen...

Ohne Übertreibung, fürs Gaming absolut lächerlich...

Dagegen ist das echte 3D wirklich eine Neuerung die das Gaming auf die nächste Stufe bringt. Wer schon mal im IMax war weis wie genial ein 3D Erlebnis ist. 3D LCDs TVs, 3D Displays bei denen man keine Brille mehr braucht... Cinemaxx stellt auch auf 3D Kino um. Eine Entwicklung in die richtige Richtung.

Ich halte Eyefinity im Gamingbereich für eine Verzweiflungstat seitens AMD um auf biegen und brechen gegen 3D Vision was in der Hand zu haben, aber mal ehrlich wer kauft sich zig Monitore für ein paar 1000€?

Fürs Arbeiten sind 3 Monitore dann aber wieder schon sinnvoll wenn man das Geld hat, aber das können auch andere Grafikkarten ohne Eyefinity.
 
Zuletzt bearbeitet:
Ist ja tatsächlich kopiert :D
Ich bin gespannt was von der Seite kommt, wenn AMDATI in zwei-drei Jahren Nvidia einen Preisvorschlag macht. Fürs aufkaufen der grün-schwarzen.

Und nein, so abwegig ist das überhaupt nicht. :)
 
Kasmopaya schrieb:
Ich halte Eyefinity im Gamingbereich für eine Verzweiflungstat seitens AMD um auf biegen und brechen gegen 3D Vision was in der Hand zu haben, aber mal ehrlich wer kauft sich zig Monitore für ein paar 1000€?
Das hat nicht mit Verzweiflung zu tun. Hier wurde doch schon erklärt, wie es zu den sechs DisplayPorts gekommen ist.

The OEMs asked AMD for six possible outputs for DisplayPort from their notebook GPUs: up to two internally for notebook panels, up to two externally for conncetors on the side of the notebook and up to two for use via a docking station. In order to fulfill these needs AMD had to build in 6 lanes of DisplayPort outputs into its GPUs, driven by a single display engine. A single display engine could drive any two outputs, similar to how graphics cards work today.

Eventually someone looked at all of the outputs and realized that without too much effort you could drive six displays off of a single card - you just needed more display engines on the chip. AMD's DX11 GPU family does just that.
Quelle

Statt die neue Technologie auf Notebook GPUs zu beschränken, hat AMD/ATI sie einfach in alle neuen GPUs eingebaut.
 
Kasmopaya schrieb:
1. Preis der Monitore, das dürfte dann der zig Fache Preis eines 3D Monitors für 3D Vision sein.
2. Gute Displays ohne Rahmen müssen erst noch auf den Markt gebracht werden
3. Man braucht einen gewissen Abstand zu den Monitoren sonst sieht man wieder nur in die Mitte und man hat einen Tunnelblick der sogar das Sichtfeld einschränkt
4. Warum nicht einfach einen großen LCD, ok der hat nicht die extreme Auflösung, aber er ist günstiger, braucht weniger Strom, und man hat auch ein sehr großes Bild
5. Der Stromverbrauch von zig Displays dürfte die ganze Bude aufwärmen -> Sauna
6. Bei der extremen Auflösung bricht dir eine HD 5000 Garantiert ein wenn man Kantenglättung anmacht. Erst recht doppelt und dreifach mit nur 1GB Vram, und vorerst gibts nur die Version

1. 3x180€ = 540€ http://geizhals.at/deutschland/?cat=monlcd19wide;asuch=Acer B223W&sort=p
Das 3D Vision Set kostet dagegen 400€ http://geizhals.at/deutschland/a447244.html und man hat ein eingeschränktes Sichtfeld und muss ne dämliche Brille tragen.
2. Da stimm ich dir zu.
3. Bei 80cm Abstand und leicht angewinkelten Monitoren sollte dabei kein Problem entstehen.
4. http://geizhals.at/deutschland/a295188.html 1300-1500€ vs. die oberen 540€. Laut Prad ein Verbrauch von um die 160W, die 22" Acer jeweils um die 60W also 180W. Davon abgesehen dass sich trotz der größeren Auflösung nicht das Sichtfeld erweitert.
5. 20W mehr sollten nicht den Ausschlag geben.
6. 3*(1680*1050) = 5292000 vs. 2560*1600 = 4096000, also nicht die Welt

Laut Geizhals gehen die 22" Geräte ab 115€ los, die 30" Geräte ab 1039€, ist also ein kleiner Unterschied ;)
Wobei man auch den Samsung 3D Monitor verwenden könnte: 3*290€
 
Zuletzt bearbeitet:
Ihr könnt euch das Zerpflücken sparen, eine HD 5000 hat niemals die Power so eine extreme Auflösung mit Kantenglättung zu versorgen. Da bräuchte man wahrscheinlich min. 4GB Vram, also ist die Technik gleich mal dahin. Außer man kauft sich 30" Displays da braucht man dann weniger Kantenglättung, aber wehe dem der da 2AA an macht. 3x 30" wirds wieder übel für die GPU...

Wers will kann es sich kaufen, ist aber genau so ein Flop wie Mulit-GPU Karten. Davon gibts zwar auch Fans, aber macht mal ohne mich.
ATI wie wärs mal mit Klasse statt Masse...
 
@ H€553

Oder man beschwert sich bei einem Entusiastenprodukt über den Kaufpreis oder den Stromverbrauch.

Die heilige Kuh "Enthusiasten-Produkt". :freak:
Differenzierte Meinungen, geschweige denn Kritik, unerwünscht. :D

@rumpel02: Man kann auch weniger Bildschirme nutzen.

Kannst Du lesen ?

Außerdem macht e ökonomisch mehr sinn sich die Grafikkarte zu kaufen, als eine andere Grafikkarte und noch für weit über 100€ ein Dual/TrippleHead2Go, welches nicht ansatzweise die Leistung hat und noch zusätzlich Strom schluckt.

Mal abgesehen davon, dass ich mir die Matrox-Lösung auch nicht kaufen würde (;)), finde ich Deine Argumentation etwas seltsam. Auf der einen Seite kritisierst du mich, weil ich den Ökonomischen & Ökologischen Sinn deines sogenannten "Enthusiasten-Produktes" bezweifel, aber auf der anderen Seite tust Du das selbe beim Matrox-Produkt ? :rolleyes: :freaky:

Naja. Wenn die theoretische Leistungssteigerung der praktischen entspricht, dann muss der G300 nicht mals ein Rohrkrepierer werden um Prbleme zu bekommen. Dann wär der G300 auch bei einer 100%igen Leistungssteigerung die HD 5870 schneller, als die GTX 380.

Meine Glaskugel sagt mir, dass Du voll auf ATI abfährst, richtig ? ;)

viele stellen es hier aber so dar, als ob es ein Fehler von Seiten AMD sei...

:heuldoch:
 
Zuletzt bearbeitet:
Sowas ist schon interessant.
Nicht nur für die Arbeit, sogar wer damit spielen möchte, könnte einen Vorteil ziehen, WENN es ein Spiel geben würde, welches eine Auflösung von bzw. 5760x3600 anzeigen könnte.

Wie schon geschrieben wird Samsung bald neue Monitore mit dünnem Rand anbieten, mit ein wenig handwerklichem Geschick kann man die Ränder danach bestimmt noch dünner machen.
(damit meine ich nicht einfach nur abschneiden, wie viele mit einem Kurzschlussgehirn denken würden)
 
Zurück
Oben