Bericht Bericht: Nvidia GF100: Technische Details

Warhorstl schrieb:
Komplettzitat entfernt. Bitte Regeln beachten.

Bei welchen Spielen machen die ATI Karten Probleme?
 
Zuletzt bearbeitet von einem Moderator:
luluthemonkey schrieb:
3D geht mir echt am aller Wertesten vorbei, aber dank 3D kommen 120 Hz Geräte endlich im Fahrt.

Faszinierend.....beim Wechsel vom CRT zum TFT war das Highlite das der stetige Neuaufbau des Bildes wegfällt und das Bild dadurch flimmerfrei wird und jetzt ist das Highlite das es wiederkommt. :freaky:
 
@Lence_Laroo
Besser als die Gerüchte aus dem roten Lager darstellen wollten. Da wurde von "Software"-Tesselation über die CCs gesprochen, nun haben wir dedizierte Einheiten, und zwar deren 16 (klar, ist nicht mit demjenigen des RV870 zu vergleichen). Es sind immer noch 512 CCs und nicht die spekulierten 448. Bereits seit 10. Januar in Massenproduktion...

Zum Beruf: Momentan noch nichts (Student);) Aber wenn fertig, dann dipl. Elektroingeneur...
 
@ wadenbeisser

Tja, die meisten haben eben nicht verstanden wofür die Anhebung der HZ bei einem TFT gut ist. Dabei lässt sich dies eigentlich wunderbar mit FPS vergleichen. Da versteht wenigstens jeder warum mehr als 60 sinnlos ist ;-) Mein TV hat auch mehr, aber das war definitiv nicht der Kaufgrund. 1080p Filme sehen ab einer hochrechnung von mehr als dem doppelten auch verdammt Komisch aus.

@ MorPheuZ
Danke für DEN Beitrag! Jetzt verstehe ich alles und brauche nicht mehr weiter diskutieren :lol:

@ AwesomeSauce
Jop, der Faktor sieht jetzt nach diesen Infos auf jeden Fall besser auch um das nochmal zu betonen. Gut so :-) Bei den Daten (auch der Größe) hast das Ding hoffentlich richtig viel Bums und genügend clevere Techniken um den Hunger gering zu halten. Der Preis wird wohl leider nicht viel Spielraum haben, die Angst bleibt :-/
 
Zuletzt bearbeitet:
@DvP
Mehr als 60Fps bringen dir bei einem 60Hz-Monitor nur optisch nichts, was aber nichts daran ändert, dass die Inputdaten viel öfter abgefragt werden können und sich das Spiel deswegen genauer und flüssiger steuern lässt (ohne schwammigen Inputlag). Is jetzt aber offtopic;)

Und ja, preismässig wird AMD wohl König bleiben, ist aber auch nicht verkehrt so :) Preisfights sind immer gut;)
 
Zuletzt bearbeitet:
Wird der GF100 wieder keinen Audiocontroller onboard haben? DD+ und DTS True HD wäre schön!
 
DvP schrieb:
[...] wobei jeder mit Hirn beiden Konkurrenten viel Erfolg wünschen sollte.

Signed.

Was viele Leute hier vergessen, ist dass Nvidia hier zumindest versucht, einen ordentlichen Innovationsschub zu leisten. Und wannimmer sowas ansteht, ist das erstmal positiv, egal von welcher Seite angekündigt.
Dass die Gefahr besteht, hierbei einen monolithischen Überchip für teuerst Geld und ne Menge verbratenen Strom hervorzubringen, dessen Innovationen sich in letztendlich zu wenige Endnutzervorteile übersetzen, ist allerdings auch klar. Aber das haben neue Technologien an sich, es hat einfach noch keiner vorgemacht, wie das richtige Maß auszusehen hat.

Natürlich interessiert den Einzelnen, vor allem hier im Forum, meist nur, "welcher Hersteller" dann halt mehr FPS in seinem Lieblingsspiel schafft. Sowas sollte meiner Ansicht nach aber nicht der einzige Gesichtspunkt sein. Die Forderung hiernach führt nämlich gerade nicht zu neuen Technologien, sondern zu Refresh-Mauerei im Sinne von hier mal paar Streamprozessoren mehr, da mal nen Speicherchen mehr.
Dass Nvidia besserer Geometrieberechnung Vorschub leisten will, macht aber vielleicht neue Spiele bzw. grundlegend bessere Grafik in der Zukunft erst möglich.
 
wadenbeisser schrieb:
Faszinierend.....beim Wechsel vom CRT zum TFT war das Highlite das der stetige Neuaufbau des Bildes wegfällt und das Bild dadurch flimmerfrei wird und jetzt ist das Highlite das es wiederkommt. :freaky:

dir ist schon klar das beim TFT nicht alle pixel gleichzeitig refrashed werden?! Das ergebniss ist das ein bild ohne viel Bewegung perfekt ist, in schnellen bewegungen gibts dann aber doch wieder probleme.

AwesomeSauce schrieb:
@DvP
Mehr als 60Fps bringen dir bei einem 60Hz-Monitor nur optisch nichts
Stimmt absolut nicht.
 
Wenn vsync an ist schon ;) Tearing ist dann auch scheisse :)
 
Na endlich gibt es etwas mehr Infos über die Architektur :)
Wer anderes erwartet hat, ist selber Schuld. Dass die Karten einiges später kommen hat sich ja anhand der bekannt gewordenen Yields schon abgezeichnet.
Dinge die mir aufgefallen sind:
Die Architektur finde ich sehr interessant. Vor allem die Modulare Bauweise, die mich sehr an die AMD Bulldozer Architektur erinnert. Vor allem die Tessellation Unit in jeder SM-Einheit finde ich einen interessanten Ansatz. Würde mich nicht überraschen, wenn das ganze entgegen meiner vorherigen Erwartungen wesentlich modularer und skalierbarer werden würde und Nvidia damit recht einfach kleinere Modelle produzieren könnte. So wie es ja Ati vor macht die ganze Zeit.
Graphics Processing Clusters (GPCs)
Einer der größten Unterschiede zwischen dem „alten“ GT200 (und G80) und dem neuen GF100-Chip ist die Aufteilung der internen Komponenten, die Nvidia deutlich überarbeitet hat, um so nach eigenen Aussagen die Effizienz spürbar steigern zu können. Die meisten Ausführungseinheiten hat Nvidia in so genannten „Graphics Processing Clusters“ (GPCs) untergebracht, die jeweils gewisse Komponenten wie zum Beispiel die Streaming-Multiprocessors (SM) und die TMUs enthalten. Um die GF100-Architektur skalieren zu können, kann Nvidia sowohl die GPCs als auch die SMs und die Speichercontroller abschalten beziehungsweise gar nicht erst verbauen.
Nividia ist hier wohl noch einen Schritt weiter gegangen mit den Tessallators.Allerdings wird sich die Frage stellen ob das für Spiele Entwickler gut oder schlecht ist - muss das bei der Programmierung berücksichtigt werden oder würde Tessellation nativ auf den unterschiedlichen Units skalieren, oder wird nur eine verwendet wenn das Spiel nicht explizit darauf programmiert ist?

Auf jeden Fall bin ich positiv überrascht von dem technischen Aufbau, auch wenn ich denke, dass Nvidia wohl die Strom/Hitzeprobleme nciht in den Griff bekommt, was aber Vorraussetzung ist um die Neuen Radeons zu schlagen. Durch die geringere Anzahl der TMUs müssen diese höher takten, was wieder mehr Strom und Hitze erzeugt und somit wohl die extra Kühlung braucht. Wird das mit der Kühlung nicht geschafft, muss der Takt runter und somit die ganze Leistung der Karte. Hier sind wohl die grössten Schwierigkeiten verborgen.

Auch wird es keine 2xGPU Karte geben, da die Stromversorgung schon ausgereizt ist mit 1x6-pin und 1x8-pin. Das entspricht der 5970 mit 2 GPUs und bietet keine Luft mehr nach ober wegen den Spezifikationen. Heise hat es perfekt zusammengefasst:
http://www.heise.de/newsticker/meld...ader-Kerne-und-64-Textureinheiten-906002.html
Der Knackpunkt scheint hierbei jedoch die Taktfrequenz zu sein. Liefen die 80 TMUs einer GeForce GTX 285 mit nur 648 MHz („Graphics Clock“, wie auch die Rasterendstufen/ROPs), will Nvidia die Textureinheiten beim GF100 mit einer deutlich höheren Taktfrequenz ansteuern. Unbestätigten Gerüchten zufolge sollen die Textureinheiten gar so flott wie die Shader-Rechenkerne laufen („Hotclock“), was ihre geringe Anzahl mehr als kompensieren würde. Diese Taktfrequenz betrug beim GT200b 1476 MHz (GeForce GTX 285), beim GF100 dürfte sie sich ebenfalls in ähnlichen Regionen bewegen.
Neo_Xsendra schrieb:
und zu eyefinity haben das gegenstück namens 3d surround

informieren statt dummes zeug verbreiten...
Eyefinity und das Nvidia Surround haben gar nichts gemeinsam - das hat Nvidia verpennt. Das was Nvidia mit Surround macht kannst du auch mit
ATI RADEON 9000 chipset, 128 MB RAM PCI-Karte und
ATI RADEON 9000 chipset, 64 MB RAM AGP-Karte
unter Windows 2000!
http://www.realtimesoft.com/multimon/reviews/3mon_rad9k/

Das selbe auch mit 2 Nvidia Karten:
Nvidia GeForce4 MX 440 chipset, 64 MB RAM
Nvidia GeForce4 MX 420 chipset, 64 MB RAM
http://www.realtimesoft.com/multimon/reviews/3mon_gf4/

Surround ist mal wieder rebranding von Nvidia - diesmal für Features statt für Karten.
miagi schrieb:
zu dieser Eyefinity/Surround-Vision geschicht... aehm wayn intressierts?!

axo noch was wer denkt er könnte mit EINER 5870 oder 5890 auf 3-6 monitoren eine spielbare framrate erreichen lügt sich einen in die tasche.
http://www.youtube.com/watch?v=f-gfoeWfxOc
Das ist eine 5770 und ich denke die 3 Monitore gehen da echt gut ab! Ohne AA, doch wenn interessierst? Lieber ohne AA/AF hoch geschraubt und dafür dieses Zockerfeeling.

Es wird Eyefinity sein, das dafür sorgt, dass die kleinen Radeons Einzug in die Büros halten werden - eine Marktlücke die Nvidia wohl beim konzipieren übersehen hat und nicht mehr nachrüsten konnte. Wohl auch weil alle davon ausgingen, dass dedizierte Grafikkarten in Büros keinen Sinn machen bei aktuellen IGPs. Auch für Extrem-Zocker wird sich die Frage stellen ob man sich wirklich 2 Karten kaufen soll für Multi-Monitor Zocken, was man wohl brauchen wird um weiterhin "en Vogue" zu sein.
 
Nun bei all den Grüchten und getue bin ich froh im November eine 5850 für 250 gekauft zu haben.
Was ich echt schade finde ist das ATI wohl frühestens mit der nächsten Generation auf den 3D zug aufspringt... Interessieren würds mich nämlich schon
 
miagi schrieb:
dir ist schon klar das beim TFT nicht alle pixel gleichzeitig refrashed werden?! Das ergebniss ist das ein bild ohne viel Bewegung perfekt ist, in schnellen bewegungen gibts dann aber doch wieder probleme.

Und dir ist klar das dies bei den 120hz Bildschirmen wieder eingeführt wird, da sonst die Shutterbrille nicht funktionieren würden, oder?
Bei den grossen LCD TV Displays war der tiefergehende Grund die LCD typische Trägheit zu kaschieren und somit den "Full Screen Mausspuereffekt" zu minimieren. Bei den Shutterbrille wird hingegen für jedes Auge ein eigenes Bild dargestellt, wodurch sich die Bildrate pro Auge letztenendes halbiert.
 
Schaby schrieb:
Erzählen kann man viel, es ist und bleibt ein Papiertiger. Was zählt sind Fakten und die gibt es nach wie vor nicht.

Die Karte wurde ja noch nicht veröffentlicht, daher kann der GF100 kein Papiertieger sein.

Einhörnchen schrieb:
Allein wegen den unverschämten Preisen von AMD sollte man bis zum Fermi-Release warten, wenn man eine AMD-Karte kaufen will. AMD wird sicher die Preise senken.

Unverschämt? Die 8800 GTX hat zum Release 580€ gekosetet, die 8800 Ultra 700€. Die GTX 280 war bei 500€ und die GTX 285 war auch noch bei 330.
Ich wüsste nicht was da auch nur Ansatzweise unverschähmt an den Preisen den zur Zeit schnellst und zweit schnellsten Single GPU Grafikkarten mit aktuellen Feature Set sein soll.

Pupp3tm4st3r schrieb:
Das will Nvidia mit 3D Surround machen, wenn sie eine EyeFinity-ähnliche Technik bringen würden, würden alle ähnlich meckern: billiges plagiat blablabla. Deswegen eben 3D...

3D ist auch mit Eyefinity möglich. 3D Vision Surround ist also weder ein Alleinstellungsmerkmal, noch etwas gänzlich neues.

JanEissfeldt schrieb:
Ich bin nicht sicher, aber braucht man nicht für Eyefinity auch noch teure Adapter? Und wie soll man ohne Hilfe an drei Anschlüssen sechs Monitore anschließen? Ehrlich gesagt, sind solche Aussagen recht naiv. Das sieht eher nach Marketingblendung als real machbar aus.
Da sind mir ehrlich gesagt 2 echte Karten mit 3D Surround lieber als das Gefummel mit zusätzlichen, teurern Adaptern.

Den aktiven Adapter brauchst du nur, wenn einer der 3 Monitore keinen Display Port bietet - wenn man schon das Geld ausgibt, und neu kauft, sollte man darauf schon achten.
Selbst wenn man eine Konfiguration ohne DisplayPort anstrebt, stehen dem 80-120€ Adapter auf der einen, eine Sli Konfiguration gegenüber, welche also eine Grafikkarte von vermutlich 250-500€ zusätzlich benötigt, dazu ein SLI Fähiges Mainboard und ein Netzteil das die Power für zwei solche Grafikkarten bietet.

Teuer wird beides, das auf jedenfall. Bei Nvidia wirds aber dann nochmal erheblich teurer.

Und wie man an eine Karte 6 Displays anschießt (was für den Privat User eh nicht in Frage kommen wird) kannst du dir per Google beantworten.

miagi schrieb:
zumal ein grosser monitor bzw. extrem breiter monitor besser ist als mehrere kleine...

Ein großer Monitor vs. 3 kleinere ist nicht "besser", sondern anders. Das warum wurde schon zuhauf diskutiert.

miagi schrieb:
axo noch was wer denkt er könnte mit EINER 5870 oder 5890 auf 3-6 monitoren eine spielbare framrate erreichen lügt sich einen in die tasche.

Es ist nicht nötig zu lügen, es ist eine Tatsache. Das man dann bei voller Auflösung nicht mehr Spielraum für AA/AF hat und ggf. auf ein paar Details verzichten mußt, halte ich für Selbstverständlich.

Hier auch mal wieder ein tolles Video von HardOCP. Wenn ich mich recht errinere war er "totaly impressed"

Dazu muß man auch sagen, das die Full HD werte dort ein wenig zu viel des guten sind, eine für mich Sinnvolle Triple Display Konfiguration wäre mit maximal 22" Monitoren. Und da reicht dann auch 1680x1050 was nochmal 600.000 weniger Pixel sind, wie bei 3x Full HD.

Asfark schrieb:
Hoffentlich wird das nicht so ein Papiertiger wie die 5000er Reihe damals. :/

Ein Papiertieger ist ein Stück Hardware, das Veröffentlicht wurde aber nirgends zu kaufen gibt. Das trifft auf die HD5000 nicht zu; es gab sie zu kaufen, wenn man genug Geld ausgeben wollte sogar durchweg, es gab sie halt nur in viel zu geringen Stückzahlen.

Pickebuh schrieb:
Es ist wohl besser du schaust dir den Test mal selber an. (Kleiner Tipp ganz Unten sind die FPS von 3 Monitoren ! ) da geht es dann kräftig in den Keller. :(
....
miagia hat vollkommen Recht wenn er sagt das Eyefinity zu viel Leistung für 3 Monitore benötigt als wenn man es mit nur einer Karte verwenden könnte.
....
Was nützt also Eyefinity ?
Nur fürs Büro ist es zu gebrauchen. Alles andere was auf Präsentationen vorgeführt wird ist nur reines Marketing-Feature und im wirklichen Gebrauch nicht zu verwenden.

Wir hatten das Thema doch schon mal, warum kommst du wieder mit solchen Unwahrheiten daher?
Eyefinity ist nicht nur ein Marketing Gag. Eyefinity benötigt viel Leistung, aber die kann man sich problemlos an anderer Stelle wiederholen.
Ausserdem gibt es nicht nur die Spiele, welche bei den ganzen Benchmarks genutzt werden. Denn die sind es ja gerade, die zum Vergleich herangezogen werden, die besonders viel Leistung von Grafikkarten abverlangen.
Die meisten Spiele geben sich mit bedeutend weniger Leistung zufrieden, und da ist Eyefinity, z.B. bei MMOs ne tolle Sache (sofern man das Geld dafür hat).
 
Immerhin gibts mehr Nvidia optimierte Spiele als Ati, zumindest kommt mir das so vor

Und wen der erste Benchmark auf nen Nvidia optimierten Spiel läuft hat das schon was zu sagen, auserdem find ich ein game mit physX schon um ein haus geiler als ohne

@ Batman
@ Mirrors Edge
 
4ndreas schrieb:
Was ich echt schade finde ist das ATI wohl frühestens mit der nächsten Generation auf den 3D zug aufspringt... Interessieren würds mich nämlich schon
Ist doch schon auf dem Weg - mit Ati wirst du schon in 3D zocken können bevor Nvidia erste echte Benchmarks raus bringt:
http://www.hardwareluxx.de/index.ph...14112-3d-gaming-bald-auch-mit-amd-karten.html
Mit 3DVision machte es NVIDIA bereits schon vor. Auf der diesjährigen Consumer Electronics Show in Las Vegas zeigte dann auch AMD seine Lösung (wir berichteten). Mit dem kommenden ATI-Catalyst-10.1-Treiber will die Grafiksparte des US-Amerikanischen Chipentwicklers die Funktion endgültig nachliefern.
Ich glaube die ersten zocken schon mit dem Beta-Treiber. 3D ist ein Treiber Feature und benötigt nur genügend FPS - mit 2 Karten kein Problem, selbst auf 3 Monitoren.
 
@Complication
jo aber die monitore sehen recht klein aus also keine hohe aufleosung... ausserdem kann man anhand des youtube-vids nicht wirklich klar erkennen wie fluessig das laeuft.

zum thema Evefinity und Büros habe ich in post #149 schon was geschrieben...

@wadenbeisser
ich rede vom 120Hz betrieb bei 2D darauf bin ich heiss.
kp was du mir sagen willst aber wenn zwischen zwei bildern aufm tft ein schwarzes bild eingefuegt wird sehen bewegte bilder schaerfer aus, sofern die Herz-Zahl hoch genug ist damit es nicht auffällt. habs mir selbst angeguckt ein Sony 200Hz geraet sehe ich ruckeln dagegen wirkte der selbe einspieler bei einem Sony 100Hz Pro LCD perfekt fluessig. So wird CRT sozusagen simuliert und es funktioniert gut! Sofern die Herz-Zahl bei einem CRT hoch genug ist gibts auch keine probleme. ich hatte damals einen Iiyama 19" den ich mit 120Hz benutzt habe und mich hat da nichts flimmerndes gestoert.
 
Zuletzt bearbeitet:
Complication schrieb:
Allerdings wird sich die Frage stellen ob das für Spiele Entwickler gut oder schlecht ist - muss das bei der Programmierung berücksichtigt werden oder würde Tessellation nativ auf den unterschiedlichen Units skalieren, oder wird nur eine verwendet wenn das Spiel nicht explizit darauf programmiert ist?
Dafür ist der Treiber zuständig, nicht das Spiel.
Complication schrieb:
auch wenn ich denke, dass Nvidia wohl die Strom/Hitzeprobleme nciht in den Griff bekommt, was aber Vorraussetzung ist um die Neuen Radeons zu schlagen.
Stromverbrauch ist noch nicht bekannt - alles nur Vermutungen.
Complication schrieb:
Durch die geringere Anzahl der TMUs müssen diese höher takten, was wieder mehr Strom und Hitze erzeugt und somit wohl die extra Kühlung braucht.
Die neuen TMUs sollen viel effizienter arbeiten, und afaik im 1:2 Verhältnis zum Shader-Core laufen...
Anandtech schrieb:
Finally, texture units are now tied to the shader clock and not the core clock. They run at 1/2 the shader clock speed of GF100.
Heise hat da also falsche Informationen...
 
Zuletzt bearbeitet:
@4ndreas

tja nv bietet das seit jahren ...

das ist als ob einer sagt "schade das nv nicht den betrieb mit 6 bildschirmen drin hat mit der jetzigen generation, da muss ich jetzt wohl noch ein jahr warten, weil intressiert hätt es mcih schon!"

wenn man so ein feature will kauft man bei dem hersteller ders bietet oder findet sich damit ab das mans nicht hat >.>

@milamber!

das mit asfark hatten wir durch er sprach von der geforce5

EDIT:

ach das 3d soll bei ati schon im nächsten treiber kommen? gibts schon genaue infos welche technik genau sie dafür verwenden wollen? bzw obs die übliche shutterbrille wird?
 
Zuletzt bearbeitet:
DvP schrieb:
Sorry aber die gelieferten Daten reichen doch gerade noch für Spekulationen. Ich würde es auch schön finden wenns so wär (warum hab ich ausreichend erklärt), da ich auch wenn ich ATI/AMD sympatischer finde, absolut nichts davon habe wenn nVidia kein starker Gegner mehr ist.
Was sagst dir (nur als Beispiel), dass der Fermi hier nicht unter Stickstoff auf 50%+ Takt gelaufen ist ;-) Wäre definitiv möglich und würde den gemachten Angaben nicht widersprechen.
Stimmt, mit Sicherheit kann man das bis zu unabhägnigen benchmarks nicht sagen. Da Nvidia jedoch das exakte Testsystem + Testeinstellungen genannt hat und zb die GTX 285 Werte mit nur 2 % Abweichung reproduziert werden konnten, würde mich das schon sehr wundern. Diese Hintertür hätten sie sich offen gelassen, wenn sie mit falschen Karten ;) gespielt hätten.

Aber wie gesagt, mit Sicherheit weiß man es erst Ende Feb/Anfang März.
milamber! schrieb:
Unverschämt? Die 8800 GTX hat zum Release 580€ gekosetet, die 8800 Ultra 700€. Die GTX 280 war bei 500€ und die GTX 285 war auch noch bei 330.
Ich wüsste nicht was da auch nur Ansatzweise unverschähmt an den Preisen den zur Zeit schnellst und zweit schnellsten Single GPU Grafikkarten mit aktuellen Feature Set sein soll.
Das habe ich doch bereits ebenfalls gesagt? https://www.computerbase.de/forum/t...technische-details.688240/page-3#post-7245489
 
Complication schrieb:
Ist doch schon auf dem Weg - mit Ati wirst du schon in 3D zocken können bevor Nvidia erste echte Benchmarks raus bringt:
http://www.hardwareluxx.de/index.ph...14112-3d-gaming-bald-auch-mit-amd-karten.html
Ich glaube die ersten zocken schon mit dem Beta-Treiber. 3D ist ein Treiber Feature und benötigt nur genügend FPS - mit 2 Karten kein Problem, selbst auf 3 Monitoren.

Da ließt man eine woche keine news und schon verpasst man was "lebenswichtiges" danke für den Link... blöd nur dass das meine bisherigen pläne 3 normale monitore zu kaufen über den haufen wirft :(
 
Zurück
Oben