News AMD stellt „Eyefinity“ für DirectX-11-Karten vor

Kasmopaya schrieb:
Ihr könnt euch das Zerpflücken sparen, eine HD 5000 hat niemals die Power so eine extreme Auflösung mit Kantenglättung zu versorgen.
ATI wie wärs mal mit Klasse statt Masse...

??? Schon die 4890 packt Racedriver GRID in 2560x1600@4AA/16AF bei 55fps.

Sgt.4dr14n schrieb:
6. 3*(1680*1050) = 5292000 vs. 2560*1600 = 4096000, also nicht die Welt



30% mehr Auflösung sollte mit doppelter Power schon zu schaffen sein :rolleyes:

Klar, bei 3x30" siehts wieder anders aus, wurde aber auch schon als spielbar bezeichnet.

"I played Dirt 2, a DX11 title at 7680 x 3200 and saw definitely playable frame rates"


Außerdem werden sich die wenigsten 3x30" hinstellen, vielleicht noch 1x30" und dann noch 2x22".

Wie wärs mal mit Hirn einschalten statt sinnlosem Gebashe? Du wurdest jetzt schon 2x widerlegt, ich poste es dir auch gern nochmal.

https://www.computerbase.de/forum/threads/bilder-der-radeon-hd-5870.578331/page-18#post-6602234


Wenn du schon keine Zeit zum Tippen hast, dann vielleicht zum lesen?
 
Zuletzt bearbeitet:
Ja und? Multi GPU wird auch ständig immer und immer wieder von den Fans schöngeredet, beeindruckt mich nicht im geringsten. :D

Also noch ein Punkt mehr auf der Negativliste

8. Man kann nur Spiele spielen die GPU freundlich programmiert wurden, Spiele wie Crysis, Empire: Total War, Stalker, Venetica etc. etc. sind aufgrund der Hardwareanforderungen nicht machbar.

Also für mich wird 3D Vision extrem günstig, ich hab schon einen 22CRT brauch nur noch die GT300 und dann gehts los. :D
 
was heißt hier klasse statt masse?

soweit ich informiert bin, baut nvidia die riesen transistormonster um um jeden preis an die spitze zu kommen.

das eyefinity ist einfach nur ein geiles feature, vor allem für rennspiele... jede aufgebaute rennsimulation läuft mit 3 bildschirmen. rahmen beim bild sind perfekt,schon mal was von einer A-säule gehört?

schon mal länger ne 3D-brille getragen,dei meisten kriegen nach ner zeit kofpschmerzen,außerdem verfälscht es die farben und die wenigsten spiele fangen was damit an.


gruß
 
@Sgt.4dr14n: Sorry, war beim löschen etwas voreilig :D

@Kasmopaya: Achja, falls du wissen willst: Ich hatte schon im letzten Jahrtausend das Vergnügnen mit NVIDIA und 3D-Brille. Es war wirklich ne neue Erfahrung und ich habs immer wieder gern probiert.

Leider hat NVIDIA niemals den Treiber weiterentwickelt, so dass ich nach ner Weile auf teurem Schrott gesessen habe. Das Ding liegt jetzt noch bei mir rum, das wird in absehbarer Zeit aber auch das einzigste Bauteil von NVIDIA sein, das dieses Vergnügen haben wird.

Auf NVIDIA und seine Produktpflege-Politik kann man einen SCH**** geben... :rolleyes:

Schinzie schrieb:
was heißt hier klasse statt masse?

Mal ganz abgesehen vom NV-Notebook-GPU Debakel...

:evillol:
 
@rumpel: Wenn man sich wegen 80W (und dafür 3 22" Bildschirme) beschwert, dann macht das bei einem 24/7 betrieb pro Jahr 150€ statt 50€ (oder 100€, wenn man sonst auch 2 Bildschirme am Laufen hat) an Stromkosten und das hat wahrscheinlich niemand..
Die Matrox schlagen mit min. 120€ zu Buche (DualHead. Tripple Heasd noch einiges mehr) und haben keinen Vorteil gegenüber der ATI Karte, sondern nur Nachteile, da sogar ein höherer Stromverbrauch auftritt (dann noch Platzbedarf, maximal 3 Monitore,...).

Und ja. Ich kann lesen. Du kannst auch lesen oder lässt dir von deiner Mutter alles vorlesen und diktierst ihr anschließend, was sie schreiben soll. Es scheint aber, als ob du die Funktionsweise nicht ganz verstande hättest. Eine Tripple Head Lösung eignet sich durchaus noch zum Spielen (3*22" Pivot; keien störenden schwarzen Balken in der Mitte, sondern nur am Rand) und dafür gibt es abgesehen von zusätzlicher Hardware, bisher keine Lösung.

Zur Ökonomie: Entusiasten Hardware darf ruhig Geld kosten und Strom verbrauchen, wenn es auch eine Mehrleistung dafür gibt. Das ist dann aber mit der HD5870 nicht mehr der Fall, da das die Leistungsstärkste Grafikkarte am Markt sein wird und auch noch die Funktion des Matrox Produktes beinhaltet (in einer späteren Version sogar in einer Ausführung mit 6 Monitoren).

Was meine Rechnung anbelangt: Ich hatte in Erinnerung, dass die HD 4870 1TFLOP Leistung hat. 2,72 wären also das 2,72 fache. Da eine GTX 285 ca. 30% schneller ist wäre eine Doppelt so schnelle GTX 380 bei 260% der HD 4870, während die HD 5870 bei 272% läg und damit schneller wär.
Allerdingshabe ich inzwischen herausgefunden, dass die HD 4870 1,2TFLOP Leistung hatte und es daher nur eine 225%ige Leistungssteigerung wär und somit unter der GTX 380 läge, sofern diese doppelt so schnell wird, wie die GTX 285.
Die GTX 280 ist hingegen nur max. 16% schneller, als die HD 4870 1GB. Wenn die GTX 380 also doppelt so schnell wird, wie die GTX 280, liegen die HD 5870 (225% der HD4870) und die GTX 380 (232% der HD4870) beinahe gleichauf, wobei die GTX 380 ca. 3% schneller wäre.
Das hat rein gar nichts mit Fanboy zu tun. Ich gehe lediglich davon aus, dass die neue Generation ihre theoretische Rechenleistung im gleichen Maße steigert, wie die reale.

Heul doch? Wollte deine Mami nicht die anderen Schimpfwörter, die du im Kindergarten gelernt hast schrieben? :-p
 
Zuletzt bearbeitet:
soweit ich informiert bin, baut nvidia die riesen transistormonster um um jeden preis an die spitze zu kommen.
Ja und? HD 4890 v. GTX 275 haben die gleichen Chipkosten und die GTX 275 fährt mehr Gewinn ein.

Mag sein das einige Spiele richtig geil werden mit Eyefinity, aber ich will von ATI mehr Vram sehen, was soll das 1GB geblubber mit so einer Auflösung...

2-4GB und zwar so schnell wie möglich!
 
@ H€553

Mit Deinem Post hast du allen unter Beweiss gestellt, dass du NICHT lesen kannst. :p

Du schreibst:

@rumpel: Wenn man sich wegen 80W (und dafür 3 22" Bildschirme) beschwert, dann macht das bei einem 24/7 betrieb pro Jahr 150€ statt 50€ (oder 100€, wenn man sonst auch 2 Bildschirme am Laufen hat) an Stromkosten und das hat wahrscheinlich niemand..

Ich habe geschrieben (Post#150):

Es mag ja sein, dass es in der Industrie/Beruf Szenarien gibt wo zwölf Bildschirme von Nutzen sein könnten. ABER: Auf den Beispielbildern sehe ich In-Game-Szenen und somit dürfte klar sein worauf ATI hier abziehlt. Richtig ! Dem Nimmersatten Gamer und Kiddie der jetzt wieder was findet um sich von seinen Kumpels abzuheben.

Aufgrund Deines mangelhaften Leseverständnisses habe ich eine Markierung in mein Zitat eingefügt. :lol:

Und ja. Ich kann lesen. Du kannst auch lesen oder lässt dir von deiner Mutter alles vorlesen und diktierst ihr anschließend, was sie schreiben soll. Es scheint aber, als ob du die Funktionsweise nicht ganz verstande hättest. Eine Tripple Head Lösung eignet sich durchaus noch zum Spielen (3*22" Pivot; keien störenden schwarzen Balken in der Mitte, sondern nur am Rand) und dafür gibt es abgesehen von zusätzlicher Hardware, bisher keine Lösung.

Zur Ökonomie: Entusiasten Hardware darf ruhig Geld kosten und Strom verbrauchen, wenn es auch eine Mehrleistung dafür gibt. Das ist dann aber mit der HD5870 nicht mehr der Fall, da das die Leistungsstärkste Grafikkarte am Markt sein wird und auch noch die Funktion des Matrox Produktes beinhaltet (in einer späteren Version sogar in einer Ausführung mit 6 Monitoren).

Was meine Rechnung anbelangt: Ich hatte in Erinnerung, dass die HD 4870 1TFLOP Leistung hat. 2,72 wären also das 2,72 fache. Da eine GTX 285 ca. 30% schneller ist wäre eine Doppelt so schnelle GTX 380 bei 260% der HD 4870, während die HD 5870 bei 272% läg und damit schneller wär.
Allerdingshabe ich inzwischen herausgefunden, dass die HD 4870 1,2TFLOP Leistung hatte und es daher nur eine 225%ige Leistungssteigerung wär und somit unter der GTX 380 läge, sofern diese doppelt so schnell wird, wie die GTX 285.
Die GTX 280 ist hingegen nur 16% schneller, als die HD 4870 1GB. Wenn die GTX 380 also doppelt so schnell wird, wie die GTX 280, liegen die HD 5870 (225% der HD4870) und die GTX 380 (232% der HD4870) beinahe gleichauf, wobei die GTX 380 ca. 3% schneller wäre.
Das hat rein gar nichts mit Fanboy zu tun. Ich gehe lediglich davon aus, dass die neue Generation ihre theoretische Rechenleistung im gleichen Maße steigert, wie die reale.

Dein Textverständnis ist genauso schlecht. Mich interessiert dieser Quatsch nicht. :D
 
Kasmopaya schrieb:
und die GTX 275 fährt mehr Gewinn ein.

Quelle?

Die Chipkosten mögen gleich sein, wobei das noch zu beweisen wäre, denn schließlich ist das nur ein Salvage-Chip der 285, der ja gleich groß ist.

Ich hätte andere Zahlen zu bieten:

35$ GT200b

RV790 hat 282mm², also ca. 17mm pro Seite.

Rechner

Macht 185 Dies. Ohne mal auf Yield zu achten (wie bei GT200b) sind wir bei 4000$ pro 55nm Wafer bei 22$ pro RV890 Die.

Ich weiß jetzt nicht, ob der RV890 Wafer mehr kostet, als ein GT200 Wafer, aber da der Yield beim GT200 schlechter sein dürfte, müsste sichs eigentlich augleichen.

Macht 60% Kostenvorteil beim RV890-Die.

Außerdem ist das ja nicht das einzige an so einem Brett. Mit nur 256bit SI Anbindung und mittlerweile vermutlich günstigerem GDDR5 spart man sicher noch mal was.

Deswegen kann man die auch 20€ günstiger anbeiten, als ne 275. (geizhals)

Bei mehr VRAM, DX10.1, und mehr Chiptakt der 4890 (Marketing=mehr ist besser) seh ich ehrlich gesagt nicht so die großen Vorteile bei der 275.
 
Zuletzt bearbeitet:
@Kasmopaya:
Dein Anti AMD Gebrabbel nervt, und es hat schon in dem anderem Thread genervt. Ich mach mir nicht nochmal die Mühe deinen Unfug zu wiederlegen, und zu erläutern warum so ziemlich alles was du schreibst absoluter schwachsinn ist. Das hab ich heute schon mal getan, das sollte reichen. Du bist es eigentlich nicht mal wert das man dir Widerspricht ... man sollte dich einfach Ignorieren, so wie alle Forentrolle.
 
@rumpel02: Und wo willst du 12 Bildschirme anschließen? Da brauchst du schon wieder ein CF Gespann. Eine Einzelne wird maximal 6 unterstützen.
Wie willst du an Hand von Ingame Szenen sehen, was die Zielgruppe ist? Man kann un einmal mit Hilfe von Spielen am besten gleichzeitig die Leistungsfähigkeit und die Multimonitorfähigkeit hervorheben. Bei Benchmarks würde geschrien, dass die von AMD beeinflusst worden wären und nicht glaubhaft. Bei spielen wird aber kaum jemand sagen, dass die das Spiel umprogrammiert hätten, damit sie es flüssig wiedergeben können.
Des weiteren wirfs du mir Textunverständnis vor bei edm Punkt, bei dem ich darauf eingegangen bin, dass man durchaus ökonomisch denken kann, auch wenn es um Enthusiastenprodukte geht.
Die Rechnung diente lediglich dazu zu zeigen, dass das alles kein Fanboygelaber ist (wie du an der Stelle geschrieben hast, bei der ich geschrieben habe, dass Nvidia es nicht leicht haben wird), sondern berechtigte Annahmen sind.

Zudem finde ich "Eyefinitiy" sowohl in Ökonomischer als auch Ökoligischer Hinsicht völlig daneben.
Ein 22-Zoll-Tft genehmigt sich schon ca. 25 Watt im Betrieb. Das macht Summa summarum 300 Watt bei zwölf Bildschirmen. Dazu kommen noch die Anschaffungskosten von mindestens 1800,- Euro für zwölf Bildschirme, wenn man 150,- Euro pro Bildschirm zugrunde legt.
Abgesehen davon, dass man mit dem normalen Model nur 3 Bildschirme betreiben kann udn deine Rechnung in dem Punkt nicht stimmt, kann man mit der anderen variante auch nur 6 betreiben.
Du beschwerst dich über die Kosten in Anschaffung und Unterhalt.
Die Anschaffungskosten betragen aber eben nur 350€ (plus Karte) und die laufenden Kosten sind auch nicht so hoch, sofern man sich kein Corossfire System baut und mehrere der Karten zusammens chaltet um bis zu 24 Monitore zu betreiben (4 Grafikkarten). Wenn es dich aber nicht interessiert: Warum führst du das Argument Ökonomie überhaupt ein?
 
Ich tu es doch, weil man das so nicht stehen lassen kann:

Kasmopaya schrieb:
Eyefinity soll wohl der Counterpart von 3D Vision sein? Ich seh da so einige Punkte die mir gar nicht gefallen.

Nochmal: NEIN, Eyefinity ist NICHT der "Counterpart" von 3D Vision. Es sind zwei Grundverschiedene Techniken mit Grundverschiedenen Zielsetzungen.

Und auch nochmal: Nvidia hat KEIN Monopol 3D am PC, es gibt auch andere 3D Techniken.

Kasmopaya schrieb:
1. Preis der Monitore, das dürfte dann der zig Fache Preis eines 3D Monitors für 3D Vision sein.

Was soll die Lüge? Selbst wenn im Beispiel alle 3 Monitore neugekauft werden müßten, wären das bei nem 22" ca 410€ (3x 170€ LG L227). 3D Vision kostet als Bundle mindestens 400€., von Viewsonic 600$

Hingegen hat man aber eh schon einen Monitor, und nicht selten sogar noch nen zweiten, und braucht nur hinzukaufen.

Kasmopaya schrieb:
2. Gute Displays ohne Rahmen müssen erst noch auf den Markt gebracht werden

Die Technik hat zur Zeit überhaupt nicht das Ziel, irgendwelche Displays ohne Rahmen anzusteuern. Multi Display ist NICHT NEU, und wurde schon vorher viel genutzt - bei mir auf der Arbeit hat JEDER Arbeitsplatz 2 Monitore, bis auf in der Verwaltung.

Und durch ATis Eyefinity wird es noch viel öfter genutzt, und verbessert die alten Techniken, sowie ermöglicht Dinge, die vorher nicht oder nur umständlich und sehr teuer möglich waren.

Kasmopaya schrieb:
3. Man braucht einen gewissen Abstand zu den Monitoren sonst sieht man wieder nur in die Mitte und man hat einen Tunnelblick der sogar das Sichtfeld einschränkt
left4dead.jpg

Die Bildschirme aussen sind nur für den Augenwinkel, oder für Seitenfenster, oder oder oder, man muß überhaupt nicht Meter weit weg sitzen, nur weil es eine Person auf einem Bild tut. Das eigentliche Geschehen findet im mittleren Bildschirm statt, nicht rechts, und auch nicht links.

Kasmopaya schrieb:
4. Warum nicht einfach einen großen LCD, ok der hat nicht die extreme Auflösung, aber er ist günstiger, braucht weniger Strom, und man hat auch ein sehr großes Bild

30" Monitore sind nicht unter 1000€ zu bekommen .. wo ist das günstiger?
Und ja, man hat nicht diese extreme Auflösung, welche zu einem viel größeren Sichtfeld führt, statt nur zu einem großen Bild.

Von daher hat je nach persönlicher Prämisse, entweder Multidisplay oder großes Display seine vor und nachteile, und daher seinen Nutzen.

Kasmopaya schrieb:
5. Der Stromverbrauch von zig Displays dürfte die ganze Bude aufwärmen -> Sauna

Als wenn der typische Consumer mit 6 oder gar 12 Bildschirmen die Zielgruppe der Technik ist. Bleib sachlich.

Kasmopaya schrieb:
6. Bei der extremen Auflösung bricht dir eine HD 5000 Garantiert ein wenn man Kantenglättung anmacht. Erst recht doppelt und dreifach mit nur 1GB Vram, und vorerst gibts nur die Version

Ich seh schon, ein Forentroll weiss es besser als Ingenieure, aber keine Sorge; es wird garantiert auch 5870 und 5850er Karten mit 2GB (und vielleicht sogar mehr) geben( ,wenn dies erfoderlich ist).

Kasmopaya schrieb:
7. Man kann sich nicht die billigsten Monitore kaufen, die Winkelabhängigkeit würde die Monitore am Rand unbrauchbar machen...

Blödsinn, die Monitore inks und rechts steht nicht Kerzengerade mit dem in der Mitte, sondern angewinkelt.

Kasmopaya schrieb:
Ohne Übertreibung, fürs Gaming absolut lächerlich...

Blödsinn, bleib sachlich oder schreib bei PCGH: es gab sowas schon vor Eyefinity, wird von vielen Spielen unterstützt, und einige Spiele bauen sogar darauf auf.

Kasmopaya schrieb:
Dagegen ist das echte 3D wirklich eine Neuerung die das Gaming auf die nächste Stufe bringt. Wer schon mal im IMax war weis wie genial ein 3D Erlebnis ist. 3D LCDs TVs, 3D Displays bei denen man keine Brille mehr braucht... Cinemaxx stellt auch auf 3D Kino um. Eine Entwicklung in die richtige Richtung.

ROFL DU KOPIERST DEINE EIGENEN TEXTE, das kann ich auch:
3D eine Neuerung? Shutter Brillen, das worauf 3D Vision aufbaut, gab es von Elsa schon im letzten Jahrtausend. Die Technik ist insgesammt bald 30 Jahre alt, 3D ansich ist über 60 Jahre alt ... voll die Neuerung. Gaming auf die nächste Stufe .. gott wie peinlich

Kasmopaya schrieb:
Ich halte Eyefinity im Gamingbereich für eine Verzweiflungstat seitens AMD um auf biegen und brechen gegen 3D Vision was in der Hand zu haben, aber mal ehrlich wer kauft sich zig Monitore für ein paar 1000€?

Du kopierst schon wieder deinen schwachsinn vom anderen Thread, aber gut:
Wer bist du, das du dir mit so einem primitiven A(n)ti/AMD Post die blöße gibst.
Wer zum Teufel hat aus Eyefinitiy eine "Verzweiflungstat gegen 3D Vision" gemacht? Du? Und was hat MultiDisplay mit 3D zu tun?
Und vor allem: Seit wann hat Nvidia mit 3D Vision ein Monopol auf 3D im PC? Eh? Dir ist schon bekannt das es da noch viele andere Techniken gibt?

Kasmopaya schrieb:
Fürs Arbeiten sind 3 Monitore dann aber wieder schon sinnvoll wenn man das Geld hat, aber das können auch andere Grafikkarten ohne Eyefinity.

Besteht dein Post nur noch aus copy'n'paste?
- 3 monitore sind auch zum zocken geeignet
- das ist absolut keine Kostenfrage, da man die hälfte der Hardware eh schon besitzt
- andere normale Grafikkarten können NICHT mehr wie 2 Monitore auf diese Art und Weise ansteuern, wie es AMD mit Eyefinity tut.


Du bist unsachlich, du bist polemisch, du lügst und übertreibst, und gibst dir hier die aller größste Mühe die Technik eines Unternehmens schlecht zu reden, schlicht und ergreift nur WEIL diese Technik von diesem Unternehmen kommt.
Mit jedem Wort das du schreibst, demontierst du dich Stück für Stück selbst. Das ist echt nicht zu glauben.


Edit:
Das hier sind alles Bilder OHNE Eyefinity:

110909113256_th2grig.jpg

110909123913_triple.jpg

4893-matroxthoblivion2.jpg

pic02.jpg
 
Zuletzt bearbeitet:
@rumpel02: Und wo willst du 12 Bildschirme anschließen? Da brauchst du schon wieder ein CF Gespann. Eine Einzelne wird maximal 6 unterstützen.

Mit Crossfire zum Beispiel. Von zwölf Bildschirmen war in der News zu lesen und es wurde im Thread auch aufgegriffen. Ein Boardie hat vorgerechnet, dass sogar vierundzwanzig Bildschirme mit (vermutlich) Quad-Crossfire möglich wäre.

Des weiteren wirfs du mir Textunverständnis vor bei edm Punkt,

Ja, weil es mir nicht um drei Bildschirme ging, sondern um zwölf (siehe News/Thread) oder gar nochmehr. Deswegen meine Rechnung...

Dazu kommen noch die Anschaffungskosten von mindestens 1800,- Euro für zwölf Bildschirme, wenn man 150,- Euro pro Bildschirm zugrunde legt.

Wenn es dich aber nicht interessiert: Warum führst du das Argument Ökonomie überhaupt ein?

Ich darf doch wohl z.B. den erhöhten Spritkonsum/Anschaffungskosten von Geländewagen kritisieren, auch wenn mich dieses Auto an sich nicht interessiert !? :freak:
 
Zuletzt bearbeitet:
dagegen habe ich auch nichts gesagt. du hast aber den erhöhten spritkonsum der geländewagen kritisiert und anschließend gesagt, dass dich der erhöhte SPritkonsum überhaupt nicht interessiert.
Und wenn eine Enthusiast (ein anderer wird sich wohl kaum nen Quad Crossfire oder so in den Rechner stecken) 12 Monitore kaufen will,d ann soll er es machen.

und wenn du mit Kombinationen kommst, die nur wenig sinn machen: Man kann auch 4 Nvidia Grafikkarten in einen Rechner bauen und da dann jeweils nen TrippleHead2Go dran hauen. Auf ganz viel weniger Monitore kommt man dann auch nicht, nur sind die dann nicht so gut verknüpfbar.

Ich sage ja auch nciht, dass PhysX unnötig ist und sogar schädlich (frisst garantiert auch ein wenig Strom und man zahlt auch die Herstellungskosten, selbst, wenn man es nicht nutzt), nur weil ich es nicht brauche. Ich kann durchaus verstehen, wenn Leute Wert darauf legen, dass ne Fahne im Wind realistisch weht und dafür dann Geld ausgeben würden.
 
Zuletzt bearbeitet:
du hast aber den erhöhten spritkonsum der geländewagen kritisiert und anschließend gesagt, dass dich der erhöhte SPritkonsum überhaupt nicht interessiert.

Nein. Und um die Metapher wieder zurückzuführen: Mich hat Deine Rechnung nicht interessiert um wieviel Prozent die HD 5870 schneller sein wird als die GTX380. Dieser Quatsch interessiert mich nicht, denn es wird sich nach Fall des NDA schon herausstellen welche schneller ist. Ob das nun ATI oder NVIDIA ist, ist mir Schei**egal und hat nichts damit zu tun, dass der Betrieb von zwölf Bildschirmen sowohl Ökonomisch, als auch Ökologisch daneben ist.

Und wenn eine Enthusiast (ein anderer wird sich wohl kaum nen Quad Crossfire oder so in den Rechner stecken) 12 Monitore kaufen will,d ann soll er es machen.

Natürlich, denn wir leben in einem freien Land. Trotzdem nehme ich mir das Recht heraus zu sagen, dass ein solches Szenario einfach nur dekadent ist.
Ergänzung ()

P.S.

Wir hätten das Thema sehr viel Zivilisierter über die Bühne kriegen können, wenn Du dir diese Aussage gespart hättest:

Wie ging noch mal der Spruch? Es gibt keine Möglichkeit Worte über Kabel zu übertragen und wenn es sie gibt, dann sehe ich keinen Sinn darin. (oder so ähnlich. Vom Inhalt aber genau so^^)
 
Dann solltest du aber auch deutlich machen, dass der Satz "Mich interessiert dieser Quatsch nicht." Sich nur auf einen der beiden Punkte darüber bezieht und nicht in einer Quote-Box 2 Punkte aufgreifen und anschließend schreiben, dass es dich nicht interessiert.

Ja. Es ist dekadent. Aber in der positiven Deutung^^ Es ist ein erster Schritt, aber noch lange kein vollkommenes Ergebnis.

Mit dem Spruch wollte ich lediglich ausdrücken, dass man nciht unbedingt eine Sinnvolle Anwendung in einem bereich sieht, sie aber doch existieren kann. Stammt von irgendeiner Berühmtheit, das Zitat. Mir will nur leider nicht einfallen von wem oder wie es genau lautet.
 
Zuletzt bearbeitet:
Hmm also obwohl ich ATI überhaupt nett mag - alleine schon wegen ihren Treibern, muss ich echt sagen, dass sie mich gut versuchen zu ködern :D

Natürlich werden die Leute die sowas noch nett Live gesehen haben - sich hier und da beschweren z.b über die so oft genannten "Ränder". Ich kann nur sagen beim Zocken vergisst man die ganz ganz schnell - macht also überhaupt nix aus. Besser sind natürlich noch spezielle Monitore - möglicherweise kann man sie dann ganz einfach zu einer großen Leinwand zusammenstecken - wäre ja ganz nett sowas ;)

Wie auch immer wenn Nvidia nicht vergleichbares anbieten wird - werde ich wohl zu einer Ati greifen müssen da dieses Feature wirklich nett ist.

Wobei ich denke dass auch Nvidia sowas einführen wird - nicht umsonst haben sie ja die hohen Auflösungen bei den Triple2Go Lösungen unterbunden. Wollten wohl sowas "exclusiv" auf Nvidan Karten anbieten :D - einfach mal abwarten was Nvidia dazu sagt ;)
 
Die mögliche Auflösung klingt ja sehr vielversprechend, nur leider finde ich diese Ränder zwischen den Bildschirmen total ätzend. Ich würde mir das allerdings allzugerne mal auf einem Sony 4k Projektoren oder auf diesem 8K Prototyp von JVC anschauen. Ich stelle mir z.B. das zocken auf einer Riesenleinwand im Kino besonders bei Strategie und 3rd person Games sehr eindrucksvoll vor. Bei der Auflösung kann man sich dann auch gerne mal in die vorderen Reihen setzten und das volle Panorama genießen...

Zu schade, haben die Karten doch leider keine Dual-Link HD-SDI Anschlüsse, denn nur damit kann man die Projektoren auf voller Auflösung fahren.

Welche maximale Auflösung unterstützt eigentlich Displayport? Vielleicht gibts da ja in Zukunft irgendwelche Adaper...
 
Zurück
Oben