News AMD stellt „Eyefinity“ für DirectX-11-Karten vor

Kasmopaya schrieb:
Wieviele Monate muss man denn jetzt warten bis die 2GB Version kommt? Halbes Jahr?

Soweit ich weiß, erlaubt AMD nach 3 Monaten eigene Designs (also anderer Kühler usw.), die 2GB Variante soll direkt am Start bereit stehen (Referenzdesign, ab 320€ vermutlich, 1GB ab 280€)

Man muss halt höllisch aufpassen, das man an einer Graka nix überdimensioniert. Das bringt am Ende keine Vorteile für den Kunden sondern nur höhere Preise. Das war so beim 512bit SI der 2900, genauso wärs jetzt mit 4GB VRAM.

Über kurz oder lang werden wir evtl. sowas sehen, vielleicht aber erst bei der nächsten Generation. (Single-GPU)

@Seppuku: Sowas kann man schwer testen. Im normalen Zockeralltag spielt man halt so vor sich hin, der VRAM läuft allmählich voll (neue Level usw) und dann gibts Nachladeruckler. (Weil der normale statt dem VRAM benutzt wird)

Bei der 88GTS 320 hat sich das halt im VRAM BUG geäußert, bei der man überhaupt nicht mehr spielen konnte und erst mal mit alt+tab glaub ich aus dem Spiel rausmusste-->ganz toll.

IMO bekommt man die 512MB heute mit jedem (aktuellen) Spiel voll, was sich je nach Speichermanagement mehr (NVIDIA) oder weniger (ATI) auswirkt.

Aber bei 1GB wirds halt schon schwierig, den vollzumachen. Bei CF/SLI isses wegen dem Overhead "einfacher", aber selbst da seh ich noch LANGE keinen Bedarf für 4GB...

Bis jetzt hab ich von Kasmopaya jedenfalls noch keine Gegenbeispiel gesehen ;)

(Mehr als 1GB VRAM Verbrauch?)
 
@ H€553

Meinst du z.B. diesen: https://www.computerbase.de/2008-09...plus-1.024-mb/21/#abschnitt_performancerating
Und wie kann ich an Hand eines solchen Tests zu dem Fazit kommt, dass 512mb "viel" zu wenig sind?
Wenn ich den Unterschied quantitativ und wertend beurteilen will, benötige ich einen entsprechenden Test. Und ein solcher würde mich einmal interessieren.

@ KAOZNAKE

Warum sollte man das nicht testen können, ob es nach längerer Spielzeit zu extremen Nachladerucklern kommt? Und ein solcher Test wäre sinnvoll um eine Beurteilung abzugeben.
 
Zuletzt bearbeitet:
KAOZNAKE schrieb:
Aber bei 1GB wirds halt schon schwierig, den vollzumachen. Bei CF/SLI isses wegen dem Overhead "einfacher", aber selbst da seh ich noch LANGE keinen Bedarf für 4GB...

Wieviel Beispiele willste haben?
Ich poste mal zwei die ich gerade in 640x480 bzw 800x600 vorzuliegen habe, weil sonst alle wieder kreischen das in 2560x1600 die Auflösung mit reinspielt.
gta4_800x600_1gbbmaj.jpg

quake4_640x480_8xaa_16936r.jpg



GTA kann nicht mal AA und ist "nur" DX9 und Quake ist ein paar Jahre alt. Bei DX10-Games kommt bestimmt noch was dazu durch die "neueren" Effekte, aber leider kann man die dank der VRAM-Virtualisierung nicht messen. Ausserdem hat Nvidia seit dem VRAM-Bug ein Treiber-CAP eingebaut, bedeutet: Ab einer bestimmten Menge benutztem VRAM wird nicht mehr weiter ins Systemram geladen.

Ich wüsste aus dem Stehgreif 6 Games die etwa 1GB mit 2xAA vollmachen, und sobald man mehr als 2xAA benutzt wird das auch ganz fix viel mehr als 1GB. Findet ihr alle eure BQ-Regler nicht?
 
Zuletzt bearbeitet:
um mal ne Lanze für Kasmopaya zu brechen ;)

Bei der 4870-512 VS -1024 hat er Recht!

Ich hatte den direkten Vergleich, da ich beide hatte. Die 1024er spielt sich wesentlich besser in VRAM lastigen spielen wie Crysis Warhead (wo ich bei meinen Settings idR 800-900MB VRAM auslastung habe), da die Aulsagerungsruckler wegfallen.

Das schlägt sich nicht unbedingt in den avg. FPS nieder, aber das Spielgefühl ist mit der 1024er deutlich besser.

Darum werd auch ich mir direkt ne 2GB 5870 holen, da ich aus dieser Erfahrung gelernt habe :D
 
@seppuku: Siehe oben Ist halt mehr gefühlsmäßig, in einigen Spielen machts schon deutlich was aus (GTA4)

(Hab auch noch 512MB, nächste wird 1GB)

yurij schrieb:
ambient occlusion ist schon etwas sehr sehr feines. etwas was normale shadow-maps nicht zu stande bringen können.

allerdings ist ambient occlusion von nvidia eine sehr grobe näherung, man muss den effekt schon mit der lupe suchen.

Das Original kommt jetzt mit DX11, soviel ich weiß


yurij schrieb:
übrigens PhysX und 3D Vision sind zumindest für mich sehr interessante features, und ich vermute die neue radeon wird sie nicht haben.

Da brauchste nicht vermuten, das ist Fakt. ;)

yurij schrieb:
3D vision is zur zeit für mich leider nur ein papiertiger, da keine >40" fernseher mit 120Hz einspeisung zu kaufen sind. anaglyph version ist ein witz zum ausbrobieren, mehr nicht.

Das bleibt für mich auch erstmal ein Papiertiger. Hatte wie gesagt vor fast 10 Jahren schonmal ne 3D Brille von NVIDIA; leider hatte ich ohne neuere Treiber nicht mehr allzu viel davon... :mad:

yurij schrieb:
ATIs Havk engine kommt irgendiwe nicht ins rollen. und einen gegenpart zu 3d Vision scheint ATI auch nicht zu haben, auch wenns nur ein treiber bestandteil ist und nachgeliefert werden kann.

ich betrachte 3D Vision, insbesondere für gamer, als etwas wichtiger wie eyefinity.

Wie sich der Physik-Teil entwickelt, wird man sehen. Prinzipiell hätte man mit DX11 die gleichen Möglichkeiten und einen "offenen" Standard. Oder eben OpenCL.

Physix macht bis jetzt in genau 1 Spiel Sinn(!) und selbst da kann ich drauf verzichten. Man brauch halt erstmal ein gutes Spiel und dann kann man so Zeug reinbasteln. Sehe ich genauso kritisch wie 3D-Vision. Was mir jetzt auch nur bei ein paar Spielen was bringt, wenn überhaupt (Bei Shootern wos drauf ankommt, wird das sicher keiner verwenden, weils eher ablenkt :rolleyes:)

Eyefinity hingegen bringt mir echten Mehrwehrt, wenn ich mehr Arbeitsfläche durch mehrere Monitore habe oder in 3D Shootern mehr Rundumblick oder mehr Realismus bei Rennspielen (Seitenscheibe!)

@HisN: Jo, danke. Bis jetzt hab ich immer nur Beispiele (meist von dir ;)) mit so ca. 900MB gesehen. (Mein Erinnerungsvermögen kann mich aber auch trügen)

Andererseits muss ich sagen, komm ich mit 512MB auch sehr gut aus (3870).

Hast du noch ein Extrembeispiel ala fallout 3 Texturmod?

Bei 2GB wirds ja dann jedenfalls wohl echt schwierig, außer bei den ganzen AA-Modi, die eh kein Schwein braucht (außer Transparenz AA)

Oder wie schätzt du den Bedarf nach 4GB VRAM ein?

EDIT: Und wie funktioniert das mitm VRAM-Verbrauch eigentlich bei AA?

Also VRAM-Verbrauch steigt nicht mit der Auflösung. Sondern mitm AA-Level.

Wenn AA auf ne höhere Auflösung angewendet wird, wie siehts dann aus?

Also 3x1680x1050 mit 4xAA, ist VRAM-Verbrauch identisch zu 1x1680x1050 und 4xAA?
 
Zuletzt bearbeitet:
Seit wann beurteilt man messbare Dinge nach Gefühl...
Wenn man das macht, dann sollte man sich aber auch zu keiner Aussage hinreißen lassen, die diese Dinge quantitativ bewertet.
Und von der Auslastung des Speichers auf den zwingend erforderlichen zu schließen, ist ja sowieso nicht möglich (weder beim VRam noch beim normalen Arbeitsspeicher). Mein Vista "benötigt" auch knapp 8 GB Ram...
So lange ich keinen Test gesehen habe, der die Problematik adäquat behandelt, halte ich jede Diskussion für müßig.
 
Hab leider kein Extrembeispiel. Aber ich könnte einen Screen von y33H@ raussuchen. Crysis mit Texturmod und 1,5GB VRAM-Last. Allerdings mit unspielbaren Frame-Raten.
Ich mach halt meistens Screens von spielbaren Beispielen wie sie täglich vorkommen, muss dem 30" mit wenig AA Tribut leisten^^.

Und bei den beiden Beispielen daran denken: Da läuft kein Cuda, der Speicher der dafür gebraucht wird kommt noch mal oben drauf.

@Seppuku
VRAM-Swaps sind kurze Ruckler die nicht in Benches eingehen. Wie soll man die Dir "verdeutlichen"? Man sieht sie, und man kann feststellen wie sie verschwinden wenn man eine Graka mit mehr VRAM benutzt.

@KAOZNAKE

Ich klau noch mal ne Grafik von y33H@

y-Achse = VRAM-Belegung in MiB
x-Achse = Auflösung in Pixel x Pixel

HL2 Ep2 "Into the White Forest"-Demo (ohne Mods!!!)
134850d1251298539-gefoxqy5.png


Zum Vergleich: Crysis Warhead frisst in 1.680 mit 1x MSAA bereits 450-600 MiB (je nach Spielzeit), also das zwei- bis dreifache. Den Rest kann man sich ausrechnen
 
Zuletzt bearbeitet:
Warum sollten diese nicht in Benches eingehen?
FPS = Bilder pro Sekunde. Beim Nachladen stockt die Bildberechnung --> ergo: weniger Bilder in dieser Sekunde
Was sollte daran nicht messbar sein? Und warum sollte man es dann nicht schaffen, dieses Phänomen quantitativ auszuwerten?
 
Was ein elendiges herumlamentieren hier - so manch einer macht ihr Dinge schlecht mit einem Elan, als hänge sein Leben davon ab. Da wird um jedenpreis kaputt geredet als gäbe es kein morgen. Es nervt. Es nervt echt.

Es weiss (und wusste) JEDER das 512 MB bei sehr hohen Qualitätseinstellungen knapp waren (und 896 auch nicht mehr der Hit gewesen sind), und 1024 knapp werden.
Wem das nicht gereicht hat wartete auf die 1024er. Und wem es nicht reichen wird kauft die 2048. Fertig, es gibt keinen Grund hier weiter auf den Putz zu hauen.

Eyefinity wird einschlagen, und wenn Monitore mit unteschiedlichen Auflösungen gefahren werden können, werde ich es allein schon für Jumpgate Evolution nutzen im Triple. Und selbst wenn es dann bei irgend einem Spiel ein wenig knapp wird, dann dreht man AA einfach ein Stück zurück - diese Technik ist nämlich NICHT nur für enthusiasten, denn das sowie die dutzenden anderen Benhauptungen sind ganz primitive Lügen.


Kasmopaya schrieb:
es war ne Auflistung von Fakten nicht mehr und nicht weniger.;)

Du meint würgereiz kitzelnder Freund, bist von Fakten so weit enfernt wie Inglourious Basterds.
 
Zuletzt bearbeitet:
Seppuku schrieb:
Warum sollten diese nicht in Benches eingehen?

Zu kurz, wenn Du über 99,9% der Zeit 100 FPS steady hast kannste Dir ja ausrechnen in wie weit ein Texturswap in die everage FPS eingehen würde. Ausserdem hab ich keinen Plan wie die Berechnung der "Benches" funktioniert, ob diese Zeit überhaupt gemessen werden kann oder ob sie einfach hinten rausfällt. Ist wohl empirisch einfacher festzustellen. Es kostet nämlich unglaublich viel Spielspaß. Aber irgendwie hab ich das Gefühl dass die meisten "Casual-Gamer" diese kurzen Ruckler für ganz normal halten und ihnen keine Beachtung schenken bzw sich damit abgefunden haben.
 
Also das letzte was ATIs Eyefinity ist, ist das es gegen 3D Vision aufgestellt wird.
Unfug - erstens weiß man garnicht was Nvidia dazu noch sagen wird - wie gesagt ich vermute das Nvidia auch so eine oder ähnliche Lösung anbieten wird (Stichwort Auflösungssperre bei TripleHead2Go) - zweitens ist es möglich mit dieser Technik viel mehr zu machen als mit Nvidias 3D Vision. Ich meine man muss ja nicht nur damit zocken. Insofern wird sich Nvidia dazu noch sehr wohl was einfallen lassen. Ich warte eigentlich noch darauf dass Ati auch eine ähnliche Möglichkeit virtuellen 3D-Umgebungen darzustellen ,wie Nvidias 3D Vision, anbietet. Sollte ja wirklich kein Problem sein per Software dazu was zu machen und warum dann nett?
 
Kasmopaya schrieb:
Die supertollen Ingenieure haben ja schon mit der HD 4870 512 bewiesen das man eher Karten verkaufen will anstatt gleich ordentlich Vram mitzugeben. Bei NV wars ja noch krasser mit der 8800 GTS 320.

Da müsste ATI das Speichermanagement schon nochmal stark verbessert haben damit 1GB ausreicht.
Moin

für 90% der leute reichen die 512mb auch locker. die wenigsten leute nutzen bildverbesserung. SSAA und so weiter gibts ja erst gar nicht. ich hab hier auch ein review dazu geschrieben,da ich beide karten zu vergleich hatte bei der 1024mb version. und ja,ich habe auch zur 1024mb version geraten wenn man mit Bildverbesserung spielt. wobei unterschiede nur bei Far Cry2 und texturmods mess- und fühlbar waren.
und was hat sich seit dem aufm spielemarkt geändert? gar nichts. Die hersteller müssen gucken,dass es auch auf 800mb GTX karten von Nvidia läuft,somit wird der RAm verbrauch nicht steigen, wieso also mehr als 2gb ram???

Kasmopaya schrieb:
Naja du kannst sagen was du willst, bei der HD 4870 512 lag ich auch richtig, hab gleich am Anfang gesagt das es viel zu wenig ist und die Hype Welle war natürlich stärker. Und so alt ist die 4870 auch wieder nicht. Genauso ist es hier. Wer sich eine Karte kauft die ein paar Hundert € kostet wie die HD 5870 und dann ein paar € wegen dem Vram spart ist selber Schuld. Vram füllen geht so leicht und man kann ihn nicht aufrüsten:

PhysX, Ambient Occlusion, hohe Auflösungen + Hybrid Modi bzw. SSAA, 3D Vision -> ups :D

Da währen dann noch Texturmods und andere aufwendige AA-Modi

physX gibts bei amd nciht, genauso wenig SSAA auf normalem Weg. hohe auflösung tut dem RAm wenig und mit der 512mb 4870 kann man noch jedes spiel flüssig spielen, man kann selbst mit einer 9800gtx (512) noch fast jedes spiel gut spielen. dann ist bei verbessertem Vrammanagment 1gb ausreichend für OttonormalDoof. Wer wert auf mehr legt,für den gibts doch die 2gb Versionen? wo ist dann das problem seitens ATI? Bei Nvidia, und gerade bei denen, musst du auch auf 2gb bzw 1,7gb versionen warten, i hab aber nie gesehen,dass du die kritisiert?

Und zu nem vorigem post, wieso hat ATI kein Anspruch auf High End? momentan bauen sie gleichwertige Karten wie die High end marke nvidia? Nur dass wenn man hochauflösung mit AA usw spielen will,man kein High end produkt von Nvidia nehmen kann,wegen besagten kritikpunkten (GTX295).

Zu HD2000 und HD3000 zeiten hat AMD gesagt,dass sie nur mainstream versorgen,das ist mit HD4000 und jetzt vor allem mit HD5000 nicht mehr so.

HisN schrieb:
GTA kann nicht mal AA und ist "nur" DX9 und Quake ist ein paar Jahre alt. Bei DX10-Games kommt bestimmt noch was dazu durch die "neueren" Effekte, aber leider kann man die dank der VRAM-Virtualisierung nicht messen. Ausserdem hat Nvidia seit dem VRAM-Bug ein Treiber-CAP eingebaut, bedeutet: Ab einer bestimmten Menge benutztem VRAM wird nicht mehr weiter ins Systemram geladen.

Ich wüsste aus dem Stehgreif 6 Games die etwa 1GB mit 2xAA vollmachen, und sobald man mehr als 2xAA benutzt wird das auch ganz fix viel mehr als 1GB. Findet ihr alle eure BQ-Regler nicht?

korrigier mich wenn ich falsch liege, aber soweit ich weiß packt die grafikkarte fast immer annähernd den kompletten Vram voll..wenn du die messungen mit 2gb machen würdest,hättest du auch ne auslastung von 1,5gb...trotzdem konnte ich quake 4 sogar mit einer 8800gt flüssig spielen,sogar mit AA..wie kommts,dass spiel braucht doch 1gb vram?
merkst was? und ich hab in 1680x1050 gespielt. 512mb bei ner HD4870 haben sogar für 24xAA gereicht.

HisN schrieb:
@Seppuku
VRAM-Swaps sind kurze Ruckler die nicht in Benches eingehen. Wie soll man die Dir "verdeutlichen"? Man sieht sie, und man kann feststellen wie sie verschwinden wenn man eine Graka mit mehr VRAM benutzt.

korrigiere mich bitte wieder wenn ich falsch leige,aber wenn das bild für ne halbe sec stehen bleibt,und sich die framerate dadurch halbiert,dann fließt das doch ins gesamtrating mit ein? und zudem werden mittlerweile bei solchen vergleichen immer frameverläufe geliefert?

Bitte versteht mich nicht falsch, ich bin der meinung,dass 512mb mittlerweile auch zu wenig sind,aber ein referenzdesign bei einer ATI mit 2gb zu launchen ist utopisch und rausgeschmiessenens geld, vor allem weils den wenigsten was bringt. Somit ist dieses gerede hier nur gebashe.

und kasmo, die 6 bildschirm variante kommt ja auch mit 2gb, und soweit ich informiert bin,gibts für leute wie dich ja gleihc vom start weg die 2gb version, sogar mit neuen AF algorithmen.


gruß
 
@Schinzie
Ich hab mich in keinem Wort über die Performance ausgelassen. Merkste was?
Ich hab nur gesagt: Man merkt an Texturswaps wenn das VRAM fehlt (bevor die Karte ganz zusammenbricht wenn zu viel VRAM fehlt) und das es Spielspaß kostet. Nicht mehr, nicht weniger. Die Performance-Diskussion kommt immer von euch, nie von mir.

Das Bild bleibt nicht für ne halbe Sekunde stehen, ist deutlich weniger. Aber es bleibt stehen. Bei ner halben Sekunde muss schon sehr viel VRAM fehlen und DAS GEHT IN BENCHES ein. Schon mal COH in DX9 mit allen Reglern auf Anschlag auf einer 512MB-Nvidia gespielt? Geht gar nicht. (Und ich meine Gespielt, wenns geht eine Custom-Map mit ein paar Menschlichen und Computer-Mitspielern über ein paar Stunden, und nicht das beschissene interne Benchmark kurz angeschmissen).

Nur mal als Beispiel wie das bei COH ausgehen kann: Die Frage ist also: Wieviel VRAM-Mangel kann eine Karte kompensieren? Ab wann betrachtet es der User nicht mehr als flüssig oder störend? Da gibt es bestimmt riesige Unterschiede, besonders bei letzterem.
 
Zuletzt bearbeitet:
Schinzie schrieb:
Bitte versteht mich nicht falsch, ich bin der meinung,dass 512mb mittlerweile auch zu wenig sind,aber ein referenzdesign bei einer ATI mit 2gb zu launchen ist utopisch und rausgeschmiessenens geld, vor allem weils den wenigsten was bringt. Somit ist dieses gerede hier nur gebashe.

QFT

Hier werden Grenzwerte zum Allgemeinzustand erklärt. Solche Konstellationen aufzuzeigen sind ja für die Hersteller (die das ganz sicher auch selbst wissen) ganz nett, aber das hat mit dem realität überhaupt nichts zu schaffen. Es dient einzig und allein nur dem eigenen Ego, und outet die Leute deutlich als Markenparteiisch.

Diese ganze Diskussion ist total überflüssig.
 
ja, ich weiß welche nachladeruckler du meinst, hat man zb in AoC mit 512mb gehabt,wenn man sich in der stadt plötzlcih um 180° dreht. Aber in Crysis oder sonstigen spielen hab ich davon nie etwas gemerkt. überhaupt hab ich eher das gefühl,dass bei ati karten, wenn der vram nicht ausreihct,die leistung generell einfach runter geht und bei nvidia´s diese nachladeruckler kommen. Zumindest wars in FarCry2 so.

texturmods sind eh wieder eine andere sache.


gruß
 
Jupp, genau das ist es. AOC ist ein gutes Beispiel. Mit einer 512MB-Karte völlig unspielbar wenn man die Detail-Regler anzieht.
Ich denke es kommt halt wirklich drauf an was man möchte, und ich möchte gerne alle Regler ganz rechts haben und es nervt mich unendlich wenn ich das nicht kann weil zu wenig VRAM auf der Karte ist. Manche User wie milamber! scheinen da eine andere Einstellung dazu zu haben, und das ist gut so :-)
Aber warum kaufe ich mir eine High-End-Graka?
Mir sind die FPS eigentlich wurst solange sie über 30 liegen, ich will so viel Eye-Candy wie ich bekommen kann.
 
Zuletzt bearbeitet:
@ HisN

Wer redet bitte von den Durchschnittswerten... Dass diese für einen solchen Test total nutzlos sind, ist ja selbstverständlich (also keine Ahnung, wie du darauf kommst...) Ich habe von einzelnen Sekunden gesprochen. Und da sollte ein Ruckler (und sei es nur für eine 1/10 Sekunde) schon in Zahlen bemerkbar machen.
Warum sollte man dieses Phänomen, welches ja anscheinend so deutlich und so ein großes Thema ist und bei so vielen Spielen auftritt, nicht auch einmal in einer Messreihe quantifizieren?
Und subjektive Einschätzungen sind bei messbaren Dingen einfach unangebracht. Also warum argumentiert man gegen den Wunsch einer objektiven Betrachtung??
 
HisN schrieb:
Jupp, genau das ist es. AOC ist ein gutes Beispiel. Mit einer 512MB-Karte völlig unspielbar wenn man die Detail-Regler anzieht.
Ich denke es kommt halt wirklich drauf an was man möchte, und ich möchte gerne alle Regler ganz rechts haben und es nervt mich unendlich wenn ich das nicht kann weil zu wenig VRAM auf der Karte ist. Manche User wie milamber! scheinen da eine andere Einstellung dazu zu haben, und das ist gut so :-)

unspielbar? ich hatte 8xAA mit 16xAF an und bis auf die stadt mit dem besagtem 180° schwenk wars recht gut spielbar. unspielbar ist übertrieben,maßlos. ich hatte sonst immer zwischen 50-100fps, mit meiner 3870X2 (512mb) gings sogar mit 24xEDAA flüssig mit avr 60fps.

gruß
 
Kasmopaya schrieb:
Aber natürlich ist ATI Eyefinity gegen 3D Vision aufgestellt.

Ich verstehe auch nicht ansatzweise, warum du so auf diesem Kaktus rumreitest.
Zunächst einmal kannst du nur "aufstellen" bzw. vergleichen, was auch vergleichbar ist. Du nennst es "arm von AMD, dass sie diese Feature integrieren". Warum?
Du kannst hingehen und meinetwegen AF vergleichen. Du kannst Speichermanagement, du kannst Idle/Load-Leistung, Lautstärke etc vergleichen. Aber du kannst nicht Obst mit Gemüse vergleichen, das wäre naiv. Wenn ich solche Vergleiche übertrage, kann ich in der nächsten Klasur auch Bequerel anstelle von Hertz schreiben, ist ja das selbe: 1/sec :freak:

Und wo wir gerade bei Vergleichbarkeit sind:
Selbstverständlich richtig sich Eyefinity gegen die Triple- bzw Multiheadgeräte aus der Matrox-Schmiede. Hast du dir mal angesehen, was Matrox für Preise für solche Hardware verlangt? Auch wenn der Marktanteil >1% liegt, ist immernoch ein Markt für sowas da und scheinbar wächst dieser auch. Warum sollte man nicht hingehen und etwas entsprechendes in die eigene Hardware integrieren?
Wenn man sich das Matrox-Pendant anschaut, sieht es so aus, dass diese Funktion nur wenige Transistoren in Anspruch nimmt und somit unproblematisch in die neue ATI-Hardware zu integrieren war. Wie man desweiteren sieht, scheint es auch ziemlich gut zu funktionieren.

Und nochwas:
Hast du schon mal mit mehr als 2 Bildschirmen gearbeitet? (Ich weiß, die wenigsten können sich vorstellen, dass man mit einem PC auch "arbeiten" kann)
Falls nein, ist deine Diskussionsgrundlage umso eingeschränkter.
 
Zuletzt bearbeitet:
Zurück
Oben