joehler
Cadet 4th Year
- Registriert
- Nov. 2007
- Beiträge
- 88
Warhorstl schrieb:Komplettzitat entfernt. Bitte Regeln beachten.
Bei welchen Spielen machen die ATI Karten Probleme?
Zuletzt bearbeitet von einem Moderator:
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Warhorstl schrieb:Komplettzitat entfernt. Bitte Regeln beachten.
luluthemonkey schrieb:3D geht mir echt am aller Wertesten vorbei, aber dank 3D kommen 120 Hz Geräte endlich im Fahrt.
DvP schrieb:[...] wobei jeder mit Hirn beiden Konkurrenten viel Erfolg wünschen sollte.
wadenbeisser schrieb:Faszinierend.....beim Wechsel vom CRT zum TFT war das Highlite das der stetige Neuaufbau des Bildes wegfällt und das Bild dadurch flimmerfrei wird und jetzt ist das Highlite das es wiederkommt.
Stimmt absolut nicht.AwesomeSauce schrieb:@DvP
Mehr als 60Fps bringen dir bei einem 60Hz-Monitor nur optisch nichts
Nividia ist hier wohl noch einen Schritt weiter gegangen mit den Tessallators.Allerdings wird sich die Frage stellen ob das für Spiele Entwickler gut oder schlecht ist - muss das bei der Programmierung berücksichtigt werden oder würde Tessellation nativ auf den unterschiedlichen Units skalieren, oder wird nur eine verwendet wenn das Spiel nicht explizit darauf programmiert ist?Graphics Processing Clusters (GPCs)
Einer der größten Unterschiede zwischen dem „alten“ GT200 (und G80) und dem neuen GF100-Chip ist die Aufteilung der internen Komponenten, die Nvidia deutlich überarbeitet hat, um so nach eigenen Aussagen die Effizienz spürbar steigern zu können. Die meisten Ausführungseinheiten hat Nvidia in so genannten „Graphics Processing Clusters“ (GPCs) untergebracht, die jeweils gewisse Komponenten wie zum Beispiel die Streaming-Multiprocessors (SM) und die TMUs enthalten. Um die GF100-Architektur skalieren zu können, kann Nvidia sowohl die GPCs als auch die SMs und die Speichercontroller abschalten beziehungsweise gar nicht erst verbauen.
Der Knackpunkt scheint hierbei jedoch die Taktfrequenz zu sein. Liefen die 80 TMUs einer GeForce GTX 285 mit nur 648 MHz („Graphics Clock“, wie auch die Rasterendstufen/ROPs), will Nvidia die Textureinheiten beim GF100 mit einer deutlich höheren Taktfrequenz ansteuern. Unbestätigten Gerüchten zufolge sollen die Textureinheiten gar so flott wie die Shader-Rechenkerne laufen („Hotclock“), was ihre geringe Anzahl mehr als kompensieren würde. Diese Taktfrequenz betrug beim GT200b 1476 MHz (GeForce GTX 285), beim GF100 dürfte sie sich ebenfalls in ähnlichen Regionen bewegen.
Eyefinity und das Nvidia Surround haben gar nichts gemeinsam - das hat Nvidia verpennt. Das was Nvidia mit Surround macht kannst du auch mitNeo_Xsendra schrieb:und zu eyefinity haben das gegenstück namens 3d surround
informieren statt dummes zeug verbreiten...
http://www.youtube.com/watch?v=f-gfoeWfxOcmiagi schrieb:zu dieser Eyefinity/Surround-Vision geschicht... aehm wayn intressierts?!
axo noch was wer denkt er könnte mit EINER 5870 oder 5890 auf 3-6 monitoren eine spielbare framrate erreichen lügt sich einen in die tasche.
miagi schrieb:dir ist schon klar das beim TFT nicht alle pixel gleichzeitig refrashed werden?! Das ergebniss ist das ein bild ohne viel Bewegung perfekt ist, in schnellen bewegungen gibts dann aber doch wieder probleme.
Schaby schrieb:Erzählen kann man viel, es ist und bleibt ein Papiertiger. Was zählt sind Fakten und die gibt es nach wie vor nicht.
Einhörnchen schrieb:Allein wegen den unverschämten Preisen von AMD sollte man bis zum Fermi-Release warten, wenn man eine AMD-Karte kaufen will. AMD wird sicher die Preise senken.
Pupp3tm4st3r schrieb:Das will Nvidia mit 3D Surround machen, wenn sie eine EyeFinity-ähnliche Technik bringen würden, würden alle ähnlich meckern: billiges plagiat blablabla. Deswegen eben 3D...
JanEissfeldt schrieb:Ich bin nicht sicher, aber braucht man nicht für Eyefinity auch noch teure Adapter? Und wie soll man ohne Hilfe an drei Anschlüssen sechs Monitore anschließen? Ehrlich gesagt, sind solche Aussagen recht naiv. Das sieht eher nach Marketingblendung als real machbar aus.
Da sind mir ehrlich gesagt 2 echte Karten mit 3D Surround lieber als das Gefummel mit zusätzlichen, teurern Adaptern.
miagi schrieb:zumal ein grosser monitor bzw. extrem breiter monitor besser ist als mehrere kleine...
miagi schrieb:axo noch was wer denkt er könnte mit EINER 5870 oder 5890 auf 3-6 monitoren eine spielbare framrate erreichen lügt sich einen in die tasche.
Asfark schrieb:Hoffentlich wird das nicht so ein Papiertiger wie die 5000er Reihe damals. :/
Pickebuh schrieb:Es ist wohl besser du schaust dir den Test mal selber an. (Kleiner Tipp ganz Unten sind die FPS von 3 Monitoren ! ) da geht es dann kräftig in den Keller.
....
miagia hat vollkommen Recht wenn er sagt das Eyefinity zu viel Leistung für 3 Monitore benötigt als wenn man es mit nur einer Karte verwenden könnte.
....
Was nützt also Eyefinity ?
Nur fürs Büro ist es zu gebrauchen. Alles andere was auf Präsentationen vorgeführt wird ist nur reines Marketing-Feature und im wirklichen Gebrauch nicht zu verwenden.
Ist doch schon auf dem Weg - mit Ati wirst du schon in 3D zocken können bevor Nvidia erste echte Benchmarks raus bringt:4ndreas schrieb:Was ich echt schade finde ist das ATI wohl frühestens mit der nächsten Generation auf den 3D zug aufspringt... Interessieren würds mich nämlich schon
Ich glaube die ersten zocken schon mit dem Beta-Treiber. 3D ist ein Treiber Feature und benötigt nur genügend FPS - mit 2 Karten kein Problem, selbst auf 3 Monitoren.Mit 3DVision machte es NVIDIA bereits schon vor. Auf der diesjährigen Consumer Electronics Show in Las Vegas zeigte dann auch AMD seine Lösung (wir berichteten). Mit dem kommenden ATI-Catalyst-10.1-Treiber will die Grafiksparte des US-Amerikanischen Chipentwicklers die Funktion endgültig nachliefern.
Dafür ist der Treiber zuständig, nicht das Spiel.Complication schrieb:Allerdings wird sich die Frage stellen ob das für Spiele Entwickler gut oder schlecht ist - muss das bei der Programmierung berücksichtigt werden oder würde Tessellation nativ auf den unterschiedlichen Units skalieren, oder wird nur eine verwendet wenn das Spiel nicht explizit darauf programmiert ist?
Stromverbrauch ist noch nicht bekannt - alles nur Vermutungen.Complication schrieb:auch wenn ich denke, dass Nvidia wohl die Strom/Hitzeprobleme nciht in den Griff bekommt, was aber Vorraussetzung ist um die Neuen Radeons zu schlagen.
Die neuen TMUs sollen viel effizienter arbeiten, und afaik im 1:2 Verhältnis zum Shader-Core laufen...Complication schrieb:Durch die geringere Anzahl der TMUs müssen diese höher takten, was wieder mehr Strom und Hitze erzeugt und somit wohl die extra Kühlung braucht.
Heise hat da also falsche Informationen...Anandtech schrieb:Finally, texture units are now tied to the shader clock and not the core clock. They run at 1/2 the shader clock speed of GF100.
Stimmt, mit Sicherheit kann man das bis zu unabhägnigen benchmarks nicht sagen. Da Nvidia jedoch das exakte Testsystem + Testeinstellungen genannt hat und zb die GTX 285 Werte mit nur 2 % Abweichung reproduziert werden konnten, würde mich das schon sehr wundern. Diese Hintertür hätten sie sich offen gelassen, wenn sie mit falschen Karten gespielt hätten.DvP schrieb:Sorry aber die gelieferten Daten reichen doch gerade noch für Spekulationen. Ich würde es auch schön finden wenns so wär (warum hab ich ausreichend erklärt), da ich auch wenn ich ATI/AMD sympatischer finde, absolut nichts davon habe wenn nVidia kein starker Gegner mehr ist.
Was sagst dir (nur als Beispiel), dass der Fermi hier nicht unter Stickstoff auf 50%+ Takt gelaufen ist ;-) Wäre definitiv möglich und würde den gemachten Angaben nicht widersprechen.
Das habe ich doch bereits ebenfalls gesagt? https://www.computerbase.de/forum/t...technische-details.688240/page-3#post-7245489milamber! schrieb:Unverschämt? Die 8800 GTX hat zum Release 580€ gekosetet, die 8800 Ultra 700€. Die GTX 280 war bei 500€ und die GTX 285 war auch noch bei 330.
Ich wüsste nicht was da auch nur Ansatzweise unverschähmt an den Preisen den zur Zeit schnellst und zweit schnellsten Single GPU Grafikkarten mit aktuellen Feature Set sein soll.
Complication schrieb:Ist doch schon auf dem Weg - mit Ati wirst du schon in 3D zocken können bevor Nvidia erste echte Benchmarks raus bringt:
http://www.hardwareluxx.de/index.ph...14112-3d-gaming-bald-auch-mit-amd-karten.html
Ich glaube die ersten zocken schon mit dem Beta-Treiber. 3D ist ein Treiber Feature und benötigt nur genügend FPS - mit 2 Karten kein Problem, selbst auf 3 Monitoren.