News AMD stellt „Eyefinity“ für DirectX-11-Karten vor

Kasmopaya schrieb:
Mag sein das einige Spiele richtig geil werden mit Eyefinity, aber ich will von ATI mehr Vram sehen, was soll das 1GB geblubber mit so einer Auflösung...

2-4GB und zwar so schnell wie möglich!

die standardversion ist mit 1gb, es werden sehr schnell welche mit 2gb nachrücken. und für eine standardversion ist 1gb genug.

ich geh sogar soweit und sage dass es für 99,8% der Leute genug ist, da es selbst mit Texturmods extrem wenig Anwendungen gibt, die eine 1gb ATI karte in die Knie zwingen oder wo eine 2gb Version vorteile bringt. (ich rede nicht vom professionelem bereich).

eine standardversion bereits mit 2gb zu launchen wäre evt schon fast ein wenig krass.

http://www.youtube.com/watch?v=mzGtxlaPQqY

für hawks reicht 1gb, für Grid und für Dirt2 auch... wieso dann die Karte teurer machen und gleihc mit 2gb releasen? klar,für leute die wert drauf legen wird 2gb versionen geben, aber die breite, sehr breite masse ist mit 1gb glücklich? und deshalb soll ATI eine schlechte firma sein? die GTX285 ist auch mit "nur" 1gb, die GTX275 sogar mit weniger. Der G300, naja, mal abwarten.

Selbst die CryEngine3 läuft recht beindruckend flüssig..wahrschienlcih mit 1gb auf 3 Monitoren
http://www.pcgameshardware.de/aid,6...ti-Eyefinity-in-5760-x-1200/Grafikkarte/News/

gruß
 
Zuletzt bearbeitet:
Was meckern eigentlich die Leute immer von wegen nicht genug VRAM?
Es gibt doch mindestens 2 verschiedene ATI Radeon 4870 oder 4890 mit jeweils 2GB oder irre ich mich da?
Wenn man die in ein Crossfire hängt hat man auch 4GB. Die Asus MARS Edition hatte auch 4 GB intern.
OK, schlechtes Beispiel, aber immerhin *g*
Ist zwar kein Standard, aber sehr wohl erhältlich.
 
Mag sein das einige Spiele richtig geil werden mit Eyefinity, aber ich will von ATI mehr Vram sehen, was soll das 1GB geblubber mit so einer Auflösung...
Die bessere Frage ist was soll dieses VRam Geblubber von dir? Ach stimmt du bist NVidia Fanboy der gern mal etwas rumblubbert wie du hier ja richtig gut zur Schau gestellt hast. Das ist keine NVidia sondern eine Ati Karte welche sogar mit weniger VRam richtig gut auskommen. Außerdem ist es nahezu vollkommen gleichgültig für den VRam Verbrauch wie groß die Auflösung ist! Hinzu kommt, dass es mit Sicherheit 2GB Karten geben wird da es diese ja auch bereits bei der alten Generation gibt.

Außerdem gibt es mehr als nur Spiele wo man diese Technik nutzen könnte! Aber nein Der Tellerrand ist ja so hoch...
Es gibt doch mindestens 2 verschiedene ATI Radeon 4870 oder 4890 mit jeweils 2GB oder irre ich mich da?
Wenn man die in ein Crossfire hängt hat man auch 4GB. Die Asus MARS Edition hatte auch 4 GB intern.
Das ist Blödsinn. Bei einer Multi GPU Grafikkarte benötigt man auch ein vielfaches des RAMs, da die Daten für jede GPU vorhanden sein müssen. Das heißt, dass eine X2 auch 2 mal so viel RAM verbraucht und so der effektive RAM halbiert wird auch wenn er von der reinen Zahl her verdoppelt wird. Ich nehme sogar an, dass Multi GPUs sogar noch etwas zusätzlichen RAM schlucken, so dass im Endeffekt sogar noch weniger übrig bleibt als bei einer Singlekarte mit dem halben RAM.




An alle die meinen, dass Multimonitoring kacke ist wegen den Rendern und die meinen, dass man lieber einen großen Monitor holen sollte:
Euch ist doch wohl klar, dass mit einem Monitor gerade mal etwas um die 2500 x 1600 und 60 Bildern pro Sekunde möglich sind?

Eine Lösung wäre es einen großen Monitor mit mehreren Anschlüssen anzubieten, aber selbst hier würde man Multimonitoring benötigen auch wenn es in Wahrheit ein Monitor ist.



Dagegen ist das echte 3D wirklich eine Neuerung die das Gaming auf die nächste Stufe bringt. Wer schon mal im IMax war weis wie genial ein 3D Erlebnis ist. 3D LCDs TVs, 3D Displays bei denen man keine Brille mehr braucht... Cinemaxx stellt auch auf 3D Kino um. Eine Entwicklung in die richtige Richtung.
Nun gut so ziemlich alles was du hier geschrieben hast ist gewaltiger Blödsinn, haben aber schon andere genügend gezeigt. Aber speziell darauf will ich nochmal eingehen.

Und zwar ist 3D Vision von Nvidia absolut kein echtes 3D sondern Murks und alles andere als eine Neuerung, sondern ein Rückschritt (damit meine ich die Technik, nicht das 3D), abgesehen davon dass es keines falls mit einem IMax vergleichbar ist...

Nun zu den 3D Displays, dir ist doch wohl hoffentlich klar, dass diese auch vollkommen unabhängig von 3D Vision funktionieren können?

Und gerade bei der Verwendung von 3D wäre es möglich zwei Anschlüsse zu nutzen, den einen für das Bild des linken und den anderen für das Bild des rechten Auges, so dass dann beide die volle Auflösung mit voller Wiederholrate darstellen können. Bei Projektoren könnte man sogar 2 Projektoren mit je einem Polyfilter nutzen um einen echten 3D Effekt zu ermöglichen.

Wenn man nun 2 Bildschirme oder einen Bildschirm mit riesiger Auflösung der auch 2 Anschlüsse benötigt mit 3D nutzen will wo beide Bilder gleichzeitig angezeigt werden, steigt die Anschlussanzahl schlagartig auf 4.

Bei so einem gebogenen Bildschirm der aus 3 hochauflösenden Monitoren zusammengesetzt ist und der gleichzeitig zwei Bilder für je ein Auge eins darstellen soll, werden schlagartig 6 Anschlüsse nötig. Und das komplett ohne Ränder.

Nun gut, solche Monitore sind momentan nicht verfügbar, könnten aber durchaus kommen, wenn gewöhnliche Karten so viele Monitore ansteueren können.



Aber ich bezweifel stark, dass es möglich sein wird mit einer (dual) Karte 12 Monitore anzuschließen, denn für sowas wäre eine Grafikkarte nötig die 3 Slots verbraucht, da sonst gar nicht alle Anschlüsse auf das Slotblech passen würden und dann nur wenn alles Displayports oder HDMI Anschlüsse sind.



Ich persönlich werde das zwar in nächster Zeit sicher nicht nutzen, da mir bisher mein einzelner nicht 3D 21,6 Zöller bisher ausreicht aber wer weis wie das in einigen Jahren ausschaut.
 
Zuletzt bearbeitet:
buntstift23 schrieb:
SUPER GEIL VOLL TOLL


Ich wollte schon immer mal SCHWARZE BALKEN bei Filmen Quer durch haben, aka. Rahmen der Monitore..... oh man !

:stock:

du hast wohl immernoch nicht ... selbst nach den 185 kommentaren hier, verstanden, wozu diese 6 (bzw. Monitore gut sind) ... ja junge, ich schaue auch Bundesliga bei mir im Dachgeschoss auf einer 2,8 x 2,8 Meter Leinwand jeden Samstag und Sonntag (für Freitagsspiele keine Zeit)

ABER DIESE VERDAMMTEN BILDSCHIRME , Ja, DIE BRAUCHST DU AM ALLER WENIGSTEN ZUM FILME SCHAUEN!


man kann es auch, ABER sie dienen dazu, so du hast einen Bildschrim, auf dem siehst du nun die Sonne. Hättest du links und rechts noch einen Bildschrim, dann würdest du die Sonnenstrahlen sehen. Baust du nochmal 3 Bildschirme unten ran, siehst du vielleicht auch die Berge, hinter denen die Sonne aufgeht (jetzt mal, banal formuliert) aber für solche Anwendungen ist dieses Zeug gemacht, und nicht dafür, dass du wegen einem schwarzen Strich, Leonardo di Caprio beim Absaufen auf den kalten Meeresgrund nicht siehst, während seine Freundinn am Erfrieren ist.
 
Sieht schon heftig aus, aber für den normalen Anwender weniger zu gebrauchen. Denke nicht das so viele auf den Teilen zocken oder Filme schauen
 
Wow ... fazinierend, wenn ich mir so vorstelle mit zig Bildschirmen und dann noch Natal oder ne Gedankensteuerung, oh man, das wäre toll, Innovationen sind schon was geiles und die Möglichkeiten die es in Zukunft geben kann/wird *freu*

Dann ist es in 5 Jahren vielleicht soweit ... Mutti, Vati + Tochter sitzen im Wohnzimmer, in der Mitte sind 6 Bildschirme und Mutti schaut ihre Lieblingsserie in 8000x4000 oder so, Vati zockt an ner anderen Wand n Ründchen un die Tochter surft im Netz ... und alles von einem PC aus, das wär schon was :D
 
Zuletzt bearbeitet:
Schinzie schrieb:
die standardversion ist mit 1gb, es werden sehr schnell welche mit 2gb nachrücken. und für eine standardversion ist 1gb genug.
Die Karte von der Eyefinity-Präsentation mit den 6 Display-Port-Ausgängen hat 2 GiB. Oben und unten jeweils acht 1024 MiBit große GDDR5-Chips von Samsung.
 
off-topic

- display´s werden in weiter zukunft mal überflüssig sein ....hologramme heisst das zauberwort.
es soll / wird wohl mal " grafikkarten ? " geben, die ein hologramm in den raum projezieren.
ob ich das noch erleben darf ....träum ;)
 
Die Karte von der Eyefinity-Präsentation mit den 6 Display-Port-Ausgängen hat 2 GiB. Oben und unten jeweils acht 1024 MiBit große GDDR5-Chips von Samsung.
Echt, Quelle? Währ ja mal ein Wunder wenn die 2GB Version schnell aufm Markt kommt. In der Verbindung mit der extremen Rohleistung einer HD 5870 ist alles unter 2GB ein Witz!



Die supertollen Ingenieure haben ja schon mit der HD 4870 512 bewiesen das man eher Karten verkaufen will anstatt gleich ordentlich Vram mitzugeben. Bei NV wars ja noch krasser mit der 8800 GTS 320.

Da müsste ATI das Speichermanagement schon nochmal stark verbessert haben damit 1GB ausreicht. Bei hohen Auflösungen und Q-Modi wird die 2GB Version schneller sein, wird sich dann bei den Tests zeigen.


Dann zu den anderen "netten" Kommentaren. Ich hab doch geschrieben der Post ist nicht zum Zerpflücken da, es war ne Auflistung von Fakten nicht mehr und nicht weniger.;) Aber natürlich ist ATI Eyefinity gegen 3D Vision aufgestellt. Gegen was denn sonst PhysX?:rolleyes: Man kann noch nicht einfach Features von der Konkurrenz akzeptieren ohne selber was dagegen zu bringen. ATIs Antwort war eben Monitore zu stapeln! Was sich durchsetzten wird bei den Enthusiasten werden wir sehen. Möglich ist alles, die HD 4870 X2 hat sich ja trotz meiner vernichtenden Meinung verdammt gut verkauft. Ob allerdings alle glücklich sind mit so einer Karte wage ich zu bezweifeln.


Anti AMD, ja klar. Hatte quasi fast immer nur AMD CPUs, Preis/Leistung einfach top. Und halte die HD 4770 für die beste Grafikkarte aufm Markt(hab das auch schon oft genug gesagt, sogar einen Thread dazu). Aber was ich hald nicht verstehen kann ist die Mainstream Auslegung von AMD. Erst sagen sie
wir sind Mainstream Enthusiast interessiert und eigentlich nur am Rande(wenn grad mal wieder ein bisschen Geld da ist.) Mulit-GPU Probleme sind nicht so schlimm, das passt schon, ist zu teuer zum fixen, kann man nix manchen, aber verkaufen wollen wir das Zeug trotzdem!
Auf der anderen Seite bringen sie dann extreme Enthusiast Features die überhaupt nicht zur Firma passen. ATI hat ja schon Features die dann am Schluss nicht richtig funktionieren: Power Play 2, Mulit GPU bzw. Crossfire. Also darum bin ich skeptisch das ein Mainstream Unternehmen willens ist ein extremes Enthusiast Feature auch ordentlich zu supporten, und dazu gehören Karten mit min. 2GB Vram.

Moin
 
Zuletzt bearbeitet:
milamber! schrieb:
Besteht dein Post nur noch aus copy'n'paste?

Jo, na klar, hast du das nicht gemerkt? Hat er auch selber geschrieben:

https://www.computerbase.de/forum/posts/6604824/

;) Hättest dir die Antwort auch sparen können, das interessiert Kasmopaya eh nicht und außerdem hats schon jemand anders gemacht :D

Stahlseele schrieb:
Was meckern eigentlich die Leute immer von wegen nicht genug VRAM?

Eigentlich meckert nur Kasmopaya, keine Ahnung warum, er checkts einfach nicht :rolleyes:

Kasmopaya schrieb:
Echt, Quelle? Währ ja mal ein Wunder wenn die 2GB Version schnell aufm Markt kommt. In der Verbindung mit der extremen Rohleistung einer HD 5870 ist alles unter 2GB ein Witz!

Wie oft soll mans dir eigentlich noch erklären? 2GB Version wird kommen, und 1GB reicht für 99% der Spiele momentan aus. :rolleyes:

Jedenfalls konntest du immer noch keinen Gegenbeweis liefern, wo man mehr als 1GB VRAM brauchen könnte.

Ach halt ich vergaß, das interessiert dich ja alles gar nicht :rolleyes:

Mal anschaulich für dich:

Ein Rennwagen mit 600PS und 100 Liter Tank (=1GB VRAM). Dann nochmal der gleiche Rennwagen mit 200 Liter Tank (=2GBVRAM)

Es gibt aber nur 1 Tankstelle von 1000, die mehr als 100 Liter Benzin am Start haben.

Wozu soll ich dann als Käufer die Nachteile des 200l Modells (=höherer Preis) in Kauf nehmen, wenn ich den Tank (=VRAM) zu 99% eh nicht voll bekomme)? Da nützt dir auch die Rohleistung nix!


Kasmopaya schrieb:
Bei hohen Auflösungen und Q-Modi wird die 2GB Version schneller sein, wird sich dann bei den Tests zeigen.

So hohe Qualitätsmodi (32xAA?) oder Auflösungen (>2560x1600??, dann aber nur mit mehr als 1 Monitor :rolleyes:) werden nirgendwo getestet. Selbst wenn, brauchste die NVIDIA-Karten gar nicht mehr mit reinzunehmen, weil die jetzt öfter schon versagen an der Stelle :rolleyes::evillol:

Kasmopaya schrieb:
Ich hab doch geschrieben der Post ist nicht zum Zerpflücken da, es war ne Auflistung von Fakten nicht mehr und nicht weniger.;) Aber

1. Waren das keine Fakten, sondern größtenteils deine eigene Meinung.
2. Haben dir mehrere Leute erklärt, das diese Sichtweise eingeschränkt ist und warum und weshalb
3. Steht nirgendwo, das man dazu deinen Post nicht zerpflücken darf. Wenns deiner Erleuchtung dient, bitte mehr davon...

Kasmopaya schrieb:
Aber natürlich ist ATI Eyefinity gegen 3D Vision aufgestellt. Gegen was denn sonst PhysX?:rolleyes: Man kann noch nicht einfach Features von der Konkurrenz akzeptieren ohne selber was dagegen zu bringen. ATIs Antwort war eben Monitore zu stapeln! Was sich durchsetzten wird bei den Enthusiasten werden wir sehen.

Dir wurde ebenfalls schon mehrfach erläutert, das AMD auf Anfrage von mehreren OEMs diese Möglichkeit für 6 Monitorausgänge (bei Notebooks) bereitgestellt hat. Dann war es nur noch ein kurzer Schritt, die Softwarebeschränkungen seitens Windows einfach per Hardware zu umgehen. So macht man aus Sch**** Geld.

Denn eins ist mal klar, schon die 285 reicht eigentlich für alles@30" und High-Quality, wer brauch dann bitte noch mehr Power? Richtig: niemand, außer die Auflösung steigt weiter, im Notfall eben mit mehreren Monitoren.

Und ich bin kein Enthusiast, der sich ständig die beste Graka usw. hinstellt. Aber der Kauf von eyefinity und noch 1 oder 2 Monitoren ist schon beschlossene Sache. So billig und einfach ist man noch nie an mehr Arbeitsfläche bzw. Monitorfläche gekommen.

Kasmopaya schrieb:
Möglich ist alles, die HD 4870 X2 hat sich ja trotz meiner vernichtenden Meinung verdammt gut verkauft. Ob allerdings alle glücklich sind mit so einer Karte wage ich zu bezweifeln.

Du bist aber nicht der Nabel der Welt...

Kasmopaya schrieb:
Anti AMD, ja klar. Hatte quasi fast immer nur AMD CPUs, Preis/Leistung einfach top. Und halte die HD 4770 für die beste Grafikkarte aufm Markt(hab das auch schon oft genug gesagt, sogar einen Thread dazu).

Dann verstehe ich ehrlich gesagt deine Haltung in diesem Fall nicht. Wenns von NVIDIA gekommen wäre, wärs natürlich ein Top-Feature gewesen?
Physix und 3Dvision sind auch nur Nischenprodukte, allerdings IMO mit wesentlich weniger Mehrwert wie eyefinity.

Kasmopaya schrieb:
Aber was ich hald nicht verstehen kann ist die Mainstream Auslegung von AMD. Erst sagen sie "wir sind Mainstream Enthusiast interessiert und eigentlich nur am Rande(wenn grad mal wieder ein bisschen Geld da ist.) Mulit-GPU Probleme sind nicht so schlimm, das passt schon, ist zu teuer zum fixen, kann man nix manchen, aber verkaufen wollen wir das Zeug trotzdem!" Auf der anderen Seite bringen sie dann extreme Enthusiast Features die überhaupt nicht zur Firma passen.

Schon mal was von Firmenpolitik gehört? Schon mal davon gehört, das man die ändern kann :rolleyes:

Zudem hab ich nirgendwo gelesen, das AMD die Enthusiasten-Schiene komplett aufgeben will (Oder nur wenn grad Geld da ist). Performance mit wenig Aufwand zu einem guten Preis war glaube ich das Ziel. Wenn man dabei ohne großen Mehraufwand noch ein paar Schmankerl einbauen kann, warum nicht?


Kasmopaya schrieb:
ATI hat ja schon Features die dann am Schluss nicht richtig funktionieren: Power Play 2, Mulit GPU bzw. Crossfire. Also darum bin ich skeptisch das ein Mainstream Unternehmen willens ist ein extremes Enthusiast Feature auch ordentlich zu supporten, und dazu gehören Karten mit min. 2GB Vram.

PP2 funktioniert, da kannst du das Gegenteil behaupten so oft du willst, kannst auch y33H@ fragen ;)

Multi-GPU ist nur ne Variante von CF, das genauso gut oder schlecht funktioniert wie SLI. Und damit ist NVIDA zuerst rausgekommen, kannst dich bei denen bedanken.

Zudem hat NVIDIA auch so einige Böcke geschossen. Wie gesagt, die 3D-Brille war schon mal da, ich hab sie selber, ist aber wieder gnadenlos in der Versenkung verschwunden. Hybrid-SLI (oder wars das andere?) fürn Desktop ebenfalls wieder eingestapft usw.

Das Feature wird schon ordentlich supportet, ist ja nicht nur für Enthusiasten, sondern alle, die mehrere Monitoranschlüsse benötigen. Die Sache funktioniert bereits problemlos, wie man auf diversen youtube-Videos sehen kann, nur die Spielehersteller müssen (unter Umständen) halt drauf anpassen. Sonst sehe ich da keine Probleme, was den Support angeht.
 
Ja wie ich das sehe ist n´ordenlicher Beamer für sowas besser - aber wer halt 3 oder 6 oder mehr Tfts übrig ha,t solls ruhig machen.........:D
Viel besser finde ich, das die 5xxx von ATI ne´ Nvida 295 GTS in die Tasche stecken soll..:lol:
@KAOZNAKE Aber multi GPU - SLI ist ein 3DfX Patent und NV hat die ja bekanntlich geschluckt....also musste sich ATI halt auch was einfallen lassen sonst wärn`sie schon lange weg...
Bin mit CF genauso zufrieden wie mit SLI - aber wer halt die Microruckler nicht mag sollte es gleich sein lassen:kotz:
 
Zuletzt bearbeitet:
Naja du kannst sagen was du willst, bei der HD 4870 512 lag ich auch richtig, hab gleich am Anfang gesagt das es viel zu wenig ist und die Hype Welle war natürlich stärker. Und so alt ist die 4870 auch wieder nicht. Genauso ist es hier. Wer sich eine Karte kauft die ein paar Hundert € kostet wie die HD 5870 und dann ein paar € wegen dem Vram spart ist selber Schuld. Vram füllen geht so leicht und man kann ihn nicht aufrüsten:

PhysX, Ambient Occlusion, hohe Auflösungen + Hybrid Modi bzw. SSAA, 3D Vision -> ups :D

Da währen dann noch Texturmods und andere aufwendige AA-Modi

Wieviele Monate muss man denn jetzt warten bis die 2GB Version kommt? Halbes Jahr?

Also AMD hat ja selber gesagt Power Play funktioniert (nicht) richtig und der Patch wird bald nachgereicht -> kann ja nicht mehr lange dauern der dürfte dann bald eintrudeln ;)

MfG Kasmo
 
Hast du einen Test parat, der zeigt, dass die 512mb bei der 4870 viel zu wenig sind?
 
kasmopaya: ich les deine posts ja in der regel recht gern. nur hier redest du dich langsam um kopf und kragen. könntet ihr es langsam dabei belassen?
 
ambient occlusion ist schon etwas sehr sehr feines. etwas was normale shadow-maps nicht zu stande bringen können.

allerdings ist ambient occlusion von nvidia eine sehr grobe näherung, man muss den effekt schon mit der lupe suchen.

übrigens PhysX und 3D Vision sind zumindest für mich sehr interessante features, und ich vermute die neue radeon wird sie nicht haben.

3D vision is zur zeit für mich leider nur ein papiertiger, da keine >40" fernseher mit 120Hz einspeisung zu kaufen sind. anaglyph version ist ein witz zum ausbrobieren, mehr nicht.

ATIs Havk engine kommt irgendiwe nicht ins rollen. und einen gegenpart zu 3d Vision scheint ATI auch nicht zu haben, auch wenns nur ein treiber bestandteil ist und nachgeliefert werden kann.

ich betrachte 3D Vision, insbesondere für gamer, als etwas wichtiger wie eyefinity.
 
Zuletzt bearbeitet:
Zurück
Oben