News Sapphire entwickelt Eyefinity ohne DisplayPort

Hmm also ich weiss nicht warum immer alle meinen dass Eyefinity auf einer HD5770 nicht sinnvoll ist? 1x 24" und 2x22" zum Arbeiten und zum Zocken am 24" im Einzelmodus ist sie perfekt und überfordert die Karte nicht im geringsten.
 
Wattebaellchen schrieb:
Äh... die Taktgeber sitzen wo? in der GPU... und wer baut die? Sapphire oder ATI?

Die karten haben nur 2 Taktgeber weil ATI schnell auf dem Markt sein wollte, halt vor Nvidia... und das hat ja mehr als gut geklappt :rolleyes:

Die nächsten Karten werden das wohl so hinbekommen.

Das ist doch gequirlter Mist. Man kann den Taktgeber sehr wohl ausserhalb der GPU platzieren. Das war auch lange Zeit der Fall bis das ganze Gedöhns wie DAC, Taktgeber etc. in die GPUs wanderte.

Und DisplayPort hat nunmal definitive Vorteile gegenüber DVI/HDMI. Das fängt bei dem Wegfall von Taktgebern erst an. Dass die Entscheidung auf DP zu setzen eine Entscheidung des Zeitdrucks war halte ich für lächerlich.

Und die nächsten Karten werden kein Stück anders aussehen. Von mir aus könnte der auf den Karten verbaute HDMI auch direkt wegfallen, er ist ja durchaus via Adapter noch möglich. Oder man lässt den HDMI und schmeisst dafür die DVI Ungetüme endlich runter. Ob man da jetzt Adapter von DVI auf HDMI oder Adapter von HDMI auf DVI beilegt ist letztendlich Wumpe...
 
find das eine super idee, weil ich hab 3*17" und da wird es sehr teuer teuer mit neuen bildschirmen
wobei Softth das auch sehr gut macht mit dem monitor an der onboard
fände aber auch größere GPUs wie 58xx 59xx sinvoller, eine 5770 kommt schon schnell an ihre grenzen
 
Complication schrieb:
Hmm also ich weiss nicht warum immer alle meinen dass Eyefinity auf einer HD5770 nicht sinnvoll ist? 1x 24" und 2x22" zum Arbeiten und zum Zocken am 24" im Einzelmodus ist sie perfekt und überfordert die Karte nicht im geringsten.

So siehts aus. Ich zock aber auch gern noch ältere Spielchen, da kanns auch auf 3 Monitoren noch gut funktionieren...

@Soldier89: Nein. Ist ja nur zur Sichtfelderweiterung. Siehe hier.

http://sites.amd.com/us/underground/products/eyefinity/Pages/eyefinity-experience.aspx
 
Falcon schrieb:
Das ist doch gequirlter Mist. Man kann den Taktgeber sehr wohl ausserhalb der GPU platzieren. Das war auch lange Zeit der Fall bis das ganze Gedöhns wie DAC, Taktgeber etc. in die GPUs wanderte.


Ja eben un nun sitzt alls in der GPU... hast du die Baupläne der CHips das du sagen kannst das die Taktgeber da einfach dranzustecken wären? es läuft über adapterchips, der unterschied hält sich da wohl in grenzen.

Falcon schrieb:
Und DisplayPort hat nunmal definitive Vorteile gegenüber DVI/HDMI. Das fängt bei dem Wegfall von Taktgebern erst an. Dass die Entscheidung auf DP zu setzen eine Entscheidung des Zeitdrucks war halte ich für lächerlich.


Ich sagte nichts von Zeitdruck, wann war sich wohl bewusst das man noch 2 Taktgeber hinzufügen sollte, wurde dann aber nciht emrh gemacht. Ich sagte ja das AMD/ATI sich auf DP verlassen haben, sie sind eh immer für kostenlose oder offene Standarts.
Die Monitorhersteller kommen aber nicht in die Gänge und verbauen nach wie vor Lizenzgebührenpflichtige HDMI anschlüsse.

Falcon schrieb:
Und die nächsten Karten werden kein Stück anders aussehen. Von mir aus könnte der auf den Karten verbaute HDMI auch direkt wegfallen, er ist ja durchaus via Adapter noch möglich. Oder man lässt den HDMI und schmeisst dafür die DVI Ungetüme endlich runter. Ob man da jetzt Adapter von DVI auf HDMI oder Adapter von HDMI auf DVI beilegt ist letztendlich Wumpe...

Naja... adapter werden gerne verbummelt, darum müht ma sich die gängigen Anschlüsse nativ auf dem BLech zu halten.
 
Soldier89 schrieb:
Ist der Rand der Monitore nicht extrem störend?

Nein.
Ergänzung ()

Wattebaellchen schrieb:
Ja eben un nun sitzt alls in der GPU... hast du die Baupläne der CHips das du sagen kannst das die Taktgeber da einfach dranzustecken wären? es läuft über adapterchips, der unterschied hält sich da wohl in grenzen.

Naja... adapter werden gerne verbummelt, darum müht ma sich die gängigen Anschlüsse nativ auf dem BLech zu halten.

Das Signal kommt aus der GPU raus. Wo ist also das Problem es noch durch einen Taktgeber zu schicken, bevor man es an den Monitor-Anschluss weitergibt?

Und weil manche Menschen schlampig sind, muss man das Produkt neu designen!? Das mag vielleicht bei Topflappen sinnvoll sein, aber nicht bei Elektronik.
 
Also 4 Monitore zum Zocken sind ja mal ein Supergau! Sieht man an dem Bild in der News. Vom Auto sieht man quasi nichts :freak:

Aber darum geht es ja auch nicht! Bei manchen hier habe ich den Eindruck, ihr Leben dreht sich entweder nur ums Zocken oder sie entnehmen ihre Informationen aus der News schlichtweg komplett aus der Überschrift und den Bildern.
Was ist das Problem an einer 5770 über Multi Media und Office? Der Preis wird hoch sein - okay aber dafür hat man reichlich Leistungsreserven und muss nicht mit Windows 8 schon wieder die Karte wechseln, da sie langsam zu langsam (xD) wird. Und ihr meint scheinbar, die Karte liegt entweder im Ilde oder Load? Auch mit 4 Monitoren wird sie bei Office+Surfen im 2D bleiben.

Mal ne Frage hätte ich noch:
... wenn diese Adapter aber auch jemals lieferbar wären.
Derzeit gibt es nur Aktiv DP auf VGA, die DVI sind wieder vom Markt genommen worden.

Warum zur Hölle ist VGA immer noch so wichtig?! Dieser Anschluss ist ein Dinosaurier! Analog ist ja an sich schon mal der Overkill aber dann nicht mit jeder Kartengeneration der analogen Wandler und Ausgänge immer weiter ab. Hab mal einen Monitor an VGA auf der GTX285 angeschlossen, da ich ihn testen wollte und nur ein VGA Kabel hatte. Ich war von diesem matschigen Bild entsetzt! Jetzt hängt das Ding an HDMI und liefert sogar bei PAL Auflösungen im TV ein sehr gutes Bild.

Ist es euch mal aufgefallen? Egal in welches Amt, welche Behöre oder welche Firma ihr kommt, alles ist an VGA angeschlossen und zu allem Überfluss brauchen die dann ja auch noch das Audiokabel weil dieser antike Ausgang keinen Ton kann! An meiner Schule kamen dieses Jahr 300 neuer Computer an. Dazu neue 20" 4:3 LCDs. Die Grakas (HD4670) haben alle einen einen DVI Ausgang und die Monitore auch einen DVI Eingang. Trotzdem wurden alle diese 300 Computer an VGA angeschlossen (habe das unter großem Protest beim Aufbau dann so angeschlossen). Das Ende vom Lied ist, dass das Bild der PCs abolut ekelhaft verwaschen ist und dann auch noch ein Audiokabel an jeden einzelnen Monitor angeschlossen werden musste! Warum?
Und warum zur Hölle liegt jeder Graka immer so ein dämliches VGA Kabel bei aber niemals ein HDMI Kabel und nur sehr selten (im Low End gar nicht) ein DVI Kabel? Zu mindest Letztere sind ja nicht so teuer wie HDMI. VGA hat bei Neuanschaffungen absolut keine Relevanz mehr, da jeder 50€ Büromonitor DVI unterstützt, und für diejenigen, die noch einen CRT Nutzen, gibt es auch problemlos DVI auf VGA Adapter (habe mittlerweile 4 von diesen überflüssigen Dingern, die zu allem Überfluss jeder GPU beiliegen). Die traurigste Lösung aller Zeiten habe ich in unserem Landratsamt gesehen. Irgendein Experte, hat da von der Graka ein DVI Kabel zum Monitor gelegt und es dort über einen Adapter an VGA angeschlossen, obwohl der einen DVI Eingang hatte! Dieser IT "Fachmann" stellt sich einen PC wohl wie einen Bausatz von Ikea vor: am Ende muss jedes Teil im Karton verbaut worden sein :freak:

E:
@Soldier89: Nein. Ist ja nur zur Sichtfelderweiterung. Siehe hier.

http://sites.amd.com/us/underground/...xperience.aspx
Okay bei BD BC2 finde ich es beeindruckend (auch wenn es wegen den Kosten vorerst nicht in Frage kommt da ich mir neue Monitore nur noch ohne TN anschaffe und 3x 300€ o.O). Wäre es denn theoretisch möglich sich bei dem Spiel einen Vorteil zu schaffen, indem ich vier Monitore aufbaue (drei nebeneinander und den 4. auf dem mittleren) und dann 90° rechts und links von mir im Blick zu haben und Nr. 4 als "Rückspiegel" benutze? Da könnte sich wenigstens keiner mehr mit nem Messer anschleichen :D Aber in dem Spiel scheint sowieso jeder 2. einen Aimbot zu nutzen (ich verliere jeden einzelnen Nahkampf, obwohl ich seit BF2 jedes Wochenende ein oder zwei Stunden spiele und diese ganzen Snipernoobs oder die mit den Carl Gustavs es schaffen mit während ich sprinte einen Kopfschuss zu verpassen. Geht auch aus dem Chatverkehr im Spiel und häufigen Kickbans hervor.
 
Zuletzt bearbeitet:
manoman3 schrieb:
@CB
@Wolfgang
Wolfgang schrieb:
benötigt man gleich drei DisplayPort-Geräte

Das ist so falsch, man brauch nur ein DisplayPort-Gerät beim Betrieb von 3 Monitoren.
Und selbst da gibt es die HP-VGA Adapter Alternative.

Siehe Eyefinity-Sammelthread :)



Ja und nein.
Lies mal den ganzen Satz!
Wolfgang schrieb:
Und da eigentlich nur der Betrieb von drei identischen Monitoren sinnvoll ist, benötigt man gleich drei DisplayPort-Geräte,
 
was aber einfach nicht stimmt. unteschiedliche pixelabstände fallen beim zocken absolut nicht auf. solange sie halbwegs gleich sind, dann passt das in der regel. drei identische monitore ist ein absolutes intusiasten-setting und das es nur mit 3 identischen sinnvoll ist find ich ne nicht ganz passende aussage. es gibt genögend monitore mit dp, die die gleiche bauform wie ihre dvi-geschwister haben.
 
Zuletzt bearbeitet:
Also zumindest mit Eyfinity auf 2* FullHD mit vollen Details/DX11 hat Dirt2 bei meiner HD5770 (10% overclocked) nicht geruckelt und der Rand (der da in der Mitte war) hat viel weniger gestört als ich gedacht hätte. Dafür ist das Mittendrin Erlebnis phenomänal (oder so)! Besser als 3D imho

Greetz,
GHad
 
"EI-FINITY" riecht hier denn keiner dieses faule EI in der ATIisten Gemeinde...? :freak:

Hallo.... Wer zum Teufel hat Platz und die auch die Kohle für 4 Monitore die kosten ja auch was... Abgesehen von den vernichtenden Kritiken wegen den störenden Monitorränder welche den Spielspaß gänzlich ruinieren.. was nur dann gelöst werden kann wenn es irgendwann mal erschwingliche rahmenlose Monitore gibt ist es doch nicht Zeitgemäß solche Hardwaremonster schaffen zu wollen. Ihr schreibt doch immer das der Stromverbrauch euch allen so an euren grünen Seelen nagt. tz tz tz jetzt 4 Monitore gleichzeitig ...pfui..!!!

Aber ATIisten kümmern sich ja lieber darum Mitbewerber schlecht zu reden.... aber Jungs das versenkte EIFINITY Geld werdet ihr dann mit euren Grakas finanzieren müssen das ist euch doch wohl klar... oder..!

Nicht für ungut :cool_alt:
 
Zuletzt bearbeitet:
lol... lustig :)
Aber mal so gesehen: Man stelle sich vor man habe ein Strombudget, sagen wir 400W zum zocken.

Da kann ich mich entscheiden entweder mit einer

GTX480 einen 22" befeuern mit 1920x1200 und 80 FPS 16xAF 32xCSAA
oder ich kann mit einer

HD5770 3x 22" Monitore bei 5760x1200 nutzen bei 35 FPS 4xAF 8xAAA
und hab noch 100W weniger verbraucht

Bei der HD5770 Lösung habe ich für den Preis der GTX480 sogar einen DisplayPort Monitor inklusive :D
 
So ein Dreck, gerade wo ich mir eine normale 5770 wegen der drei Displays geholt habe.
Den Sinn von Eyefinity sehe ich immer noch nicht, aber drei Displays, darunter ein Beamer, halte ich schon für eine halbwegs normale Anwendung.
 
@fl4sh

hat da von der Graka ein DVI Kabel zum Monitor gelegt und es dort über einen Adapter an VGA angeschlossen, obwohl der einen DVI Eingang hatte!

also wenn der ein reines dvi kabel verwendet hätte (it fachmann), hätte er zum ersten die 4 analogen pins nicht mehr oben am anderen ende des dvi kabels und 2 tens muss dan ein vga-dvi adapter am monitor rein. da ja nach deiner aussage der dvi frei geblieben ist. Den Adapter habe ich nicht gefunden im netz.

Also hatte er wohl ein dvi-I kabel verwendet mit anderer seite zu vga , was aber auch schwer zu bekommen sein dürfe ,da es billiger ist dann mit den handels üblichen dvi-vga adapter zu hantieren auf der (dvi-i seite.)

-----lange rede kurzer sinn eigendlich hat der it fachmann ein reines vga kabel angeschlossen , was ja auch immer noch bei jeder 19" dabei ist.---- denn adapter hat er wohl eher am pc angeschlossen.

Das DVi kabel was auch dabei wahr , hat er eingesteckt um es weiter zuverkaufen
 
Das wär letzte Woche genau die richtige Karte für mich gewesen. So wurde es halt nur ne normale 5770 und ein Board mit IGP.
Ich finde auch nicht, dass das eine ungewöhnliche Anforderung ist. 2 Monitore zum Arbeiten/Surfen/Photoshop (hat in meinem Bekanntenkreis eigentlich jeder Dritte) und ein TV/Beamer (falls der Rechner im Wohnzimmer steht) find ich nicht unbedingt nerdig.
Die 5770 ist dazu auch die perfekte Karte für den "Öftermal-Spieler".
 
Screemer schrieb:
dummschwätzer. tut mir leider hab aber schon lang keinen so einen dummen post gelesen.

€dit: der post bezog sich auf cem28

Ohh... fang doch nicht gleich an zu screamen... screemer

manoman3 schrieb:
Ich bin bekennender P/L-Fanboy, egal welcher Aufkleber auf der Hardware steht.

So isses... P/L und pers. Vorlieben (bei mir 3D Vision) sind ausschlaggebend, ich hab doch keinen Exclusivvertrag mit einem, die wollen doch alle nur das Beste von und für uns... unsere Kohle.
 
Zurück
Oben