Vor mehr als 3 Jahren, begann Nvidia mit der Entwicklung der 28nm Kepler Architektur

Status
Für weitere Antworten geschlossen.
Yuuri schrieb:
Kein Tearing bei Multi-Monitor-Betrieb ist übrigens lustig. Das funktioniert allerhöchstens bei identischen Monitoren und nicht mal dort zu 100 %. Der 3+1 Support ist fraglich, schließlich bietet AMD seit jetzt drei Generationen Eyefinity und Eyefinity 6. Erweiterbar sind diese durch MST-Hubs auf bis zu 24 Monitore. "Teure" aktive DP-Adapter ist auch lustig - 16 € sind schon wahnwitzig viele Euros, zudem das Geld bei drei Monitoren und einer High-End (evtl. Crossfire) auch so sehr ins Gewicht fällt. Der geringere Stromverbrauch gilt für die 680 momentan, vorhergehende Generationen haben immer mehr geschluckt. Geht es aber um die Effizienz, ist NV immer noch abgeschlagen. Framelimiter gibts von MSI und RivaTuner bspw. kostenlos und GPU unabhängig...

Wenn sich jemand schon für Multi-Monitor-Betrieb entscheidet, wird er sicherlich auf 3 gleiche Monitore setzten.
AMD bietet mit einer Karte nur 3 Monitor Support, kein 3+1. Die wesentlich teuerere Eyefinity 6 verwendet eh keiner für Spiele im Multi-Monitor-Betrieb mit dem tollen Monitorbalken mitten im Sichtfeld. Jene pseudo MST-Hubs Lösung mit bis zu 24 Monitore noch weniger... die keine Spiele nutzen!

Also, es gibt die billigen Adapter für günstigen €30 wie der "Accell" DVI-D Single Link Active der leider nur bis max. 1'920x1'200 Pixel unterstützen. Wenn Du Pech hast, wirst ein störendes Flimmern bemerken bei billig Adaptern. Bei höhen Ansprüchen muss man eben den teureren DisplayPort/DVI-D Dual-Link Adapter für 80€ voraussetzten mit bis zu 2'560x1'600 Pixel, der dann flimmerfrei ist, aber eben das Tearing & Flikering auf den Monitoren hast Du leider durch AMD's Treiber-Probleme immer noch.

All das brauchst Du bei der Nvidia Geforce GTX680 nicht und mit Adaptive VSync ist das Tearing eliminiert worden.
Dann wirst Du auch am Ende sehen, dass die Nvidia Geforce GTX680 trotz 2GB und 256Bit, in 5 von 6 Games auf 5'760x1'080 die höhere Gesamtleistung und höhere min. Fameraten und wenigen Einbrüche hat, als jede AMD 3GB Radeon HD7970 384Bit Karte, oder ?!? Die AMD hat doch satte 3GB @ 384Bit mit 264 GB/s und liegt trotzdem hinten, AMD Marketing eben!

Schon mal das neue Review der GeForce GTX 680 auf Tweakpc.de vom 18. April gelesen? Zitat Tweakpc.de :

"Ein weiterer Punkt, der die GeForce GTX 680 interessant macht, sind die neuen Features. Diese scheinen uns sogar gewichtiger als der Performancevorsprung. Adaptive-Vsync und Target Frame Rate sind Gamer-Features erster Klasse. Wen hat das Tearing und Stottern nicht schon immer genervt. Adaptive VSync ist zwar nicht das Allheilmittel, aber eine deutliche Verbesserung zu Vsync. Das was uns am besten gefallen hat ist allerdings Target Frame Rate. Diese Option schaltet die GTX 680 in den ECO-Mode und hilft am Ende wirklich bares Geld zu sparen. Wer auch gerne ältere Game-Titel mit hohen FPS Raten spielt, der senkt hier den Verbrauch schnell einmal um 100 Watt, ohne dass man wirklich etwas davon merkt. Dabei braucht man sich auch keine Sorgen machen, dass die Performance in Extremfällen nicht ausreicht, denn die Karte drosselt sich nur dann, wenn eh genügend Leistung parat steht und reagiert sehr schnell auf Veränderungen. Framet Target Rate funktioniert auch in Verbindung mit einem SLI-System und wird dort wirklich zum absoluten "Stromsparfeature". Dazu kann das Feature auch noch die Lautstärke und die Temperaturen senken.

Im neuen Surround-Modus der GTX 680 kann man drei Monitore mit einer Auflösung bis zu 7860x1600 Pixeln zusammen schalten und diesem Setup noch einen weiteren vierten Bildschirm - zum Beispiel als Chatscreen beiseite stellen. Damit ist es möglich wie bei AMDs Eyefinity drei Monitore wie einen einzelnen großen Bildschirm zu behandeln. Für den Anschluss werden keine Adapter benötigt, die bei AMD Karten bei mehr als zwei Monitoren erforderlich sind."

http://www.youtube.com/watch?v=HFJFmaJKZRk
 
Zuletzt bearbeitet:
HPC Master schrieb:
Wenn sich jemand schon für Multi-Monitor-Betrieb entscheidet, wird er sicherlich auf 3 gleiche Monitore setzten.
Jap und wie (Auszug aus der Steam Hardware Survey):
Code:
1280 x 1024	11,46%
2560 x 1024	3,38%
3840 x 1024	0,05%
1680 x 1050	11,14%
3360 x 1050	0,00%
5040 x 1050	0,01%
1920 x 1080	25,36%
3840 x 1080	0,00%
5760 x 1080	0,05%
1920 x 1200	3,94%
3840 x 1200	4,63%
5760 x 1200	0,33%
HPC Master schrieb:
AMD bietet mit einer Karte nur 3 Monitor Support, kein 3+1.
AMD bietet mit einer Karte Support für 10 Monitore.
3-1080.3189358411.png

Kenn mich aber nicht mit dem MST Hubs aus oder ob es eine Beschränkung gibt, was ich aber nicht glaube.
HPC Master schrieb:
Die wesentlich teuerere Eyefinity 6 verwendet eh keiner für Spiele im Multi-Monitor-Betrieb mit dem tollen Monitorbalken mitten im Sichtfeld. Jene MST-Hubs mit bis zu 24 Monitore noch weniger...
Und deswegen sprichst du den Hubs jetzt ihre Möglichkeit ab? "Die meisten User nutzen eh nur zwei Monitore, also ist das 3+1 Feature vollkommen sinnlos".

Die wesentlich Teurere kostet nur unwesentlich mehr, je nachdem was man für eine GPU will.

Das Argument mit dem Rand versteh ich auch nicht. Du kannst bei einer Eyefinity 6 Karte genauso nur 5 Monitore zum Zocken verwenden und einen als Ablage nutzen. Sind immer noch zwei Monitore mehr als bei der NV.
HPC Master schrieb:
Also es gibt die billige Adapter für günstigen €30 wie der "Accell" DVI-D Single Link Active die leider nur bis 1920x1200 Pixel unterstützen. Wenn Du Pech hast, wirst ein störendes Flimmern bemerken bei billig Adaptern. Bei höhen Ansprüchen muss man eben den teureren für 80€ DisplayPort/DVI-D Dual-Link Adapter mit 2560x1600 Pixel voraussetzten, der dann flimmerfrei ist, aber eben Tearing auf den Monitoren hast Du leider durch AMD's Treiber immer noch.
Der 18 € "teure" Adapter, der überall empfohlen wird, flimmert natürlich nur und ohne Ausnahme. Stimmt, hab mit meinem Adapter nur Probleme und Filme gucken kann ich auf meinem TV gar nicht. Den Dual-Link Adapter find ich grad nicht auf Geizhals, er war afaik aber nicht teurer als 40 €.
HPC Master schrieb:
All das brauchst Du bei der Nvidia Geforce GTX680 nicht und mit Adaptive VSync ist das Tearing eliminiert worden.
Dann wirst Du auch am Ende sehen, dass die Nvidia Geforce GTX680 trotz 2GB und 256Bit, in 5 von 6 Games auf 5'760x1'080 die höhere Gesamtleistung und höhere min. Fameraten und wenigen Einbrüche hat, als jede AMD 3GB Radeon HD7970 384Bit Karte, oder ?!? Die AMD hat doch satte 3GB @ 384Bit und liegt trotzdem hinten - eben AMD Marketing!
https://www.computerbase.de/artikel...0-cf.1745/seite-3#abschnitt_leistung_mit_aaaf

Unterschiedliche Szenen, unterschiedliche Ergebnisse. Zudem interessiert das Speicherinterface überhaupt nicht, aber ich geh davon aus, dass ich dir das nicht sagen muss. Falls doch, kannst du dich ja mal schlau machen, wie die Speicherbandbreite zusammengesetzt ist. Aber so wie du das letzte Bisschen kommentierst, sagt mir das eigentlich schon alles.
HPC Master schrieb:
Schon mal das neue Review der GeForce GTX 680 auf Tweakpc.de vom 18. April gelesen? Zitat Tweakpc.de :
Und du willst mir was damit sagen? Früher hieß es "aber die hat ganze 2 FPS mehr" (bei eh schon FPS von 100+). Da hat es überhaupt nicht interessiert, dass man dieses Mehr an FPS nicht gesehen oder gemerkt hat. Der Stromverbrauch war sowas von egal, "da man sich bei Highend ja eh nicht um den Stromverbrauch schert". Und schwupps zaubert NV etwas aus dem Hut, was sooooooooooooooooooooooooo einen Bart hat (FPS Limiter gab es schon zu DOS-Zeiten) und oh Herr... "Bah, die 7970 zieht 5 Watt mehr aus der Dose, is die schlecht ey". Einen Limiter bekommt man kostenlos und mit jeder Karte per Afterburner hin. Da muss ich mir nicht zwangsweise eine NV kaufen. Das ZeroCore Power Feature erwähnst du gleich gar nicht. Hier bspw. hat deine tolle NV gar keinen so tollen bzw. besseren Stromverbrauch. Deine ach so tolle GTX 680 ist sagenhafte 2 % effizienter als eine 7970 bei 2560x1600. Zur 7950 muss sie sich aber um 8 % geschlagen geben.

"Ich mach mir die Welt, wie die wie die wie sie mir gefällt".
HPC Master schrieb:
Im neuen Surround-Modus der GTX 680 kann man drei Monitore mit einer Auflösung bis zu 7860x1600 Pixeln zusammen schalten und diesem Setup noch einen weiteren vierten Bildschirm - zum Beispiel als Chatscreen beiseite stellen. Damit ist es möglich wie bei AMDs Eyefinity drei Monitore wie einen einzelnen großen Bildschirm zu behandeln. Für den Anschluss werden keine Adapter benötigt, die bei AMD Karten bei mehr als zwei Monitoren erforderlich sind."

http://www.youtube.com/watch?v=HFJFmaJKZRk
Im neuen Eyefinity Modus, kann man 24 Monitore mit einer Auflösung über 12270x5160 Pixeln zusammen schalten. Für den Anschluss wird am einfachsten ein einfacher Display-Port Monitor genutzt oder falls kein DP-Port vorhanden ist, ein Adapter verwendet, die bei AMD nur erforderlich sind, wenn der Monitor eben keinen DP-Port besitzt.

http://www.youtube.com/watch?v=N6Vf8R_gOec

PS: Cherrypicking macht doch irgendwie schon ein bisschen Spaß... :rolleyes:
 
Aber ja doch... wir sprechen hier (auch beim Zitat vom Tweakpc.de) von besseren Features und den Einsatz von einer oder zwei Gamerkarten und nicht von einer 30'000$ Config mit 4 x AMD Radeon 5870 Eyefinity 6 samt 24 Monitore mit einer Auflösung über 12270x5160 Pixeln ;o) die ein bewegtes "X-Plane 9 oder Google Earth Fight"
Game Mosaik unter Ubuntu 9.04 zaubern!

Yuuri schrieb:
Jap und wie (Auszug aus der Steam Hardware Survey): Es geht hier um drei gleiche Monitore...
=> dass wirst Du doch noch schaffen, auch wenn nur wenige 3 Monitor Config's im Einsatz sind.


AMD bietet mit einer Karte Support für 10 Monitore. Kenn mich aber nicht mit dem MST Hubs aus oder ob es eine Beschränkung gibt, was ich aber nicht glaube. Und deswegen sprichst du den Hubs jetzt ihre Möglichkeit ab? "Die meisten User nutzen eh nur zwei Monitore, also ist das 3+1 Feature vollkommen sinnlos".

Video guggen => 4.ter Monitor mit 2D Funktionen für Teamchat, Statistik oder Webbrowsing...

http://www.youtube.com/watch?v=By_nWUDgMAI#t=158s
Die wesentlich Teurere kostet nur unwesentlich mehr, je nachdem was man für eine GPU will.

Maximal 6 Monitore... und die Leistung wird bei der "günstigen" Radeon HD 6870 Eyefinity 6 Edition mit 2GB GDDR5 sicher tolle 6-9 FPS bieten...

Das Argument mit dem Rand versteh ich auch nicht. Du kannst bei einer Eyefinity 6 Karte genauso nur 5 Monitore zum Zocken verwenden und einen als Ablage nutzen. Sind immer noch zwei Monitore mehr als bei der NV. =>

Multi-Monitor-Gaming mit einer GPU ist wegen der Leistung maximal mit 3 Monitoren sinnvoll...
ein 6 oder 5 Monitor Setup sind ja wohl ein Witz... siehe "Rand mitten im Sichtfeld" - dass Du nicht verstehst...


http://www.youtube.com/watch?v=JMbHZ8Mn__g
rv870_eyefinity1.jpg


ZeroCore Power Feature => mein PC geht nach 15Min. IDLE dank SSD komplett in den Standby
 
Zuletzt bearbeitet:
Hast du fein rausgesucht, ich trink jetzt meine 43er Milch weiter und erfreue mich an Two and a half Men.
 
HPC Master schrieb:
AMD bietet mit einer Karte nur 3 Monitor Support, kein 3+1. Die wesentlich teuerere Eyefinity 6 verwendet eh keiner für Spiele im Multi-Monitor-Betrieb mit dem tollen Monitorbalken mitten im Sichtfeld.
ugly_tocktockhnj2m.gif
und als AMD den 3er bzw Eyefinity Support brachte, und nvidia nur 2 Monitore ansteuern konnte, warst du doch mit großer Sicherheit einer der schrie das sowas ja kein Mensch braucht. Jetzt hat nvidia 3+1 da wird es als DAS Feature angesehen, was?

Also, es gibt die billigen Adapter für günstigen €30 wie der "Accell" DVI-D Single Link Active der leider nur bis max. 1'920x1'200 Pixel unterstützen. Wenn Du Pech hast, wirst ein störendes Flimmern bemerken bei billig Adaptern. Bei höhen Ansprüchen muss man eben den teureren DisplayPort/DVI-D Dual-Link Adapter für 80€ voraussetzten mit bis zu 2'560x1'600 Pixel, der dann flimmerfrei ist, aber eben das Tearing & Flikering auf den Monitoren hast Du leider durch AMD's Treiber-Probleme immer noch.
Ach deswegen findet man von XFX und Sapphire aktive Adapter ab ~ 18€ ... :rolleyes:
Und nvidias Treiber sind antürlich perfekt. Das Ammenmäärchen geht weiter.
Bla bla weitere Lobdudelei auf die GTX 680
mehr ist es nicht.
 
Mich würde mal interessieren wieviel Geld man mit solchem Guerilla Marketing nebenbei für Nvidia machen kann. Wenn der Preis stimmt mach ich mich auch so zum Horst.
 
Die in Deinen Augen "Lobdudelei auf die GTX 680" sind klar darlegbare Fakten im Netz, die vielen Usern nur nicht bewusst sind. Wer sich für Multi-Monitor-Gaming interessiert - wird sich gut informieren und damals als auch heut zutage eh meist auf zwei Grafikkarten setzen und dann auch die Systemlösung mit den für Ihn besseren Features
und dem besseren P/L Verhältniss setzen. siehe...
HPC Master schrieb:
Hier ein Vorgeschmack wie gut es um die Leistungsfähigkeit der Nvidia GTX690 im DualGPU-Betrieb bestellt sein wird... Nvidia GeForce GTX 680 SLI vs. Radeon HD 7970 CrossFireX @ Review @ HardOPC.com > ;o) Masch. Übersetzung....

Ansonsten wird er evtl. erst im Nachhinein nach einer bessern Lösung Ausschau halten müssen....

HD 7970 / BF3 Screentearing Probleme...

"In meinem Fall ist es ein echtes Problem beim spielen, und ich habe gehört / gelesen, dass diverse Menschen sich über das gleiche Problem geklagt haben, und das Interessante besteht, dass zwei Jungs aus anderen Foren von 7970CFx zu 680SLi gewechselt sind, und sie sagen, das Problem sich dann erledigt habe..."
 
Zuletzt bearbeitet:
Der Sandmann ist schon längst vorbei, jetz leg dich doch bitte ins Bettchen und mach fein heia.
 
Agent 1 schrieb:
Schade das es hier keine ignore funktion gibt.

Na aber und wie es die gibt. Geh in's Kontrollzentrum (ganz oben rechts auf deinen Namen klicken), dann links "Ignorier-Liste bearbeiten", da "HPC Master" eintragen und alles ist gut. Den Sinn dieses Threads verstehe ich btw auch nicht.
 
Hey danke crapman.
Gleich mal einstellen.
 
@HPC Master

Danke für den beitrag , aber lass dich nicht auf die pappnasen ein , die verstehen dich nicht.
Du siehst ja wirst von leute ignoriert weil du im forum ein thread machst ;> kannste mal sehen was das für intelligenzbestien sind ^^
 
Zuletzt bearbeitet:
Das hier ist einfach kein Fachgespräch.
Das wäre es eventuell geworden wenn man von Anfang an auch die Konkurenz mit aufgenommen hätte und verschieden Produktentwicklungsstrategien miteinander verglichen hätte. So ist der Thread total unnötig.


Richtig.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben