Bericht Bericht: Nvidia GF100: Technische Details

Haltet mich für verrückt ;) ich habe eine nvidia 8800 gts imemr noch ;) kann immer noch alles auf 1900x1200 spielen mit 4 x antilasing alles auf high (einzige ausnahme crysis ;)) Meine frage ist warum braucht die welt jetzt schon gtx 280 karten geschweige Fenrir ? DX 11 spiele wird es in nahe zukunft noch nicht geben naja zumindesten keine ausgereiften ;P

Ich werde ein verrücktes Projekt angehen das da heisst warten auf DX 12 Grafiekarten dann steige ich um liebe runde zahlen ;P
 
Trimx schrieb:
Ich werde ein verrücktes Projekt angehen das da heisst warten auf DX 12 Grafiekarten dann steige ich um liebe runde zahlen ;P

Schauen wir mal ob das Projekt klappt, denn ich glaube, das Spiele die es machen wie Dirt2 häufiger kommen werden.

Entweder DX9 oder DX11

Obwohl so viel schlechter ist die Graka bei DX9 auch nicht und ich könnte Win XP benutzen, hmmm^^
 
@Trimx
Halte ich für ein Gerücht. Jedenfalls läuft hier z.B Bioshock inkl. 4xAA nicht flüssig, auch die Stalker-Reihe ab Clear Sky nicht. Mass Effect stauchelt auch schon deutlich, Boarderlands zieht extrem nach. Und dies alles bei 1680x1050...
 
AwesomeSauce schrieb:
@Trimx
Halte ich für ein Gerücht. Jedenfalls läuft hier z.B Bioshock inkl. 4xAA nicht flüssig, auch die Stalker-Reihe ab Clear Sky nicht. Mass Effect stauchelt auch schon deutlich, Boarderlands zieht extrem nach. Und dies alles bei 1680x1050...

Ist kein gerücht ;) nur blöd zu beweisen leider :( aber ich konnte mass effect voll auf lösung alles voll aufgedreht ( Ausser schatten das war aus ;)) auf voll high mit 1900x1200 flüssig spielen !

Teste es mal falls ihr noch eine alte Nvidia 8800 GTS rumliegen habt ;) Ps: avatar auch ausser schatten ;)
 
milamber! schrieb:
Wir hatten das Thema doch schon mal, warum kommst du wieder mit solchen Unwahrheiten daher?
Eyefinity ist nicht nur ein Marketing Gag. Eyefinity benötigt viel Leistung, aber die kann man sich problemlos an anderer Stelle wiederholen.

Ein sehr schöner in sich verdrehter Absatz mit einem kräftig Schuss Unterstellung dazu ! :mad:
Ich habe jeden Kommentar von mir mit zick Links untermauert und du unterstellst immer noch Unwahrheiten... Man kann sich auch Blind stellen...
Wenn du es nicht verstehen willst ist das dein Problem.
Aber selber sagst du das Eyefinity viel Leistung benötigt und schon sind wir bei der gespaltenen Persönlichkeit angekommen.

Eyefinity ist ein nettes Gimmik für Marketing-Präsentationen gut geeignet.
Für Leute die sich tatsächlich aber 3 Monitor auf den Schreibtisch stellen ist es wohl kaum zu gebrauchen da man nicht immer nur PacMan auf Niedrigauflösung spielen möchte. Ich kenne niemanden der sich Eyefinity zugelegt hat oder du etwa ?
Mehr habe ich dazu nicht mehr zu sagen weil es hier nicht zum Thema passt.
 
Zuletzt bearbeitet:
AwesomeSauce schrieb:
FarCry 2 Benchmarks gibts ja bereits (die in Anwesenheit der gesamten Presse erstellt wurden):
..
..
..
Diese Leistung wäre absolut in Ordnung und durchaus im Rahmen des Möglichen.

Ja...ein wirklich sehr vertrauenserweckender Test der hier bereits breitgetreten und beispielsweise damit kommentiert wurde das die simulierte 5870 erstaunlich schlecht performt.
Wozu muss man eine am Markt befindliche Karte überhaupt simulieren wenn man sogar an eine GF100 Karte rankommt?
Fragen über Fragen....
In meinen Augen ist der Test alles andere als über jeden Zweifel erhaben.
 
Kann ich auch mal ne frage am rande stellen ? ich habe ein Q6600 getaketet auf 3.33 Ghz läuft unter voll last auch stabiel meine frage kann es villeicht sein das dieser cpu einen fenrir Grafiekarte ausbremst ? oder sollte das noch reichen ? Wirde mal gerne eure meinung dazu hören ;)

Ps: Habe noch Pci express V1 weiss natürlich nicht ob da solche karten therotisch laufen wirden ;)

Wie gesagt reine neugirde ;)
 
@wadenbeisser
Gehts noch? Genau das habe ich doch geschrieben:
As you look at the charts below, you will notice that we added in “simulated” HD 5870 1GB results and there is a story behind this. NVIDIA was very forward with us and revealed the specifications of the test system they were running: a stock Intel i7 960, 6GB of 1600Mhz memory and an ASUS Rampage II Extreme motherboard running Windows 7. While we weren’t able to copy the exact same system, we did our best to replicate it by using the exact same CPU and OS while estimating the memory latencies and using a Gigabyte X58-UD5 motherboard. The result? Our stock GTX 285 performed within 2% of the results NVIDIA showed us so we are confident in the accuracy of our results.
Simuliert deswegen, weil sie nicht exakt das selbe Testsystem nachstellen konnten (Mainboard und Speicher sind verschieden), jedoch die Werte des Nvidia-Testsystems mit der GTX285 mit einer Genauigkeit von +/-2% treffen! (BTW: PCGH kommt im selben Test mit einer HD5870 auf 67 FPS, das sind nicht mal 3FPS Unterschied, dazu noch mit 0.3GHz schnellerer CPU)

@Trimx
Dies ist ein Forum - Rechtschreibung wird auch hier gerne gesehen...
 
Zuletzt bearbeitet:
:D o man hier laufen leute rum eyy xD
manchmal denke ich hier schreiben echt
die mitarbeiter von ati und nvidia xD
GIBTS ZU auf sofort ^^ Fanboy gelabere :D

meine SiS Xabre 600 GPU is die schnellste man :D :lol: :lol::lol: :lol:
 
Sun_set_1 schrieb:
Was ich immer wieder interessant finde ist diese These das Fermi für den Verbaucher ja so unglaublich Teuer wird. Und was ich viel interessanter finde, wie viele 100000000 Leute das so aufgrabschen.

Sagen wir mal die Ausbeute ist wirklich schlecht und liegt bei dem Faktor 0,5 bis 0,7 gegenüber dem GT200 (Aufgrund der Größe) (ATI Vergleiche hier völligst unangebracht) was bedeuten würde für den Verbrauche steigen die Produktionskosten je Die um 1,5 bis 1,8.

Soweit so gut. Aber wie hoch sind noch mal die Produktionskosten eines Die im Vergleich zum Endpreis für den Verbaucher? 3 oder 4 % des Gesamtpreises ? Oder noch weniger ??

Überhaupt kein Grund da von 200€ Mehrkosten zu sprechen. Einen solchen Chip würde Nvidia niemals produzieren da die Nachfrage, bei einer Karte die 700€ oder mehr kostet, so drastisch einbrechen würde dass die den Break-even-Point in 20 Jahren erreichen.

Kannste schön bei Charlie nachlesen:


Cypress GPU (nur Chip, ohne "Lötkosten", Board, Verpackung, Marge für Zwischenhändler, Händler, Steuern, Entwicklung Mitarbeiter Werbung usw.)

50$ (UVP 5870=400$, also macht der Chip allein 10-15% an Kosten aus)

Fermi GPU: 125$+aufwändigeres Board+teurere Kühlung

Also nicht ganz dramatisch, wenn man die entsprechende Mehrperformance erhält. Aber das war beim RV770/GT200 ja schon kritisch für NVIDIA, hier wirds definitv nicht besser. Auf Dauer ist der Kostennachteil nicht einzuholen, denn selbst mit 100% yield kriegt NVIDIA weniger dies raus, als AMD mit 70% oder noch weniger (sind sie jetzt schon drüber, NVIDIA hat grad 40%@448 Shader wenn ichs richtig verstanden hab)

Whoozy schrieb:
Ein Amd Mitarbeiter hat selber gesagt, das er fest damit rechnet das man im Jahr 2010 nicht ewig die Leistungskrone haben wird. Ich bin mir ziemlich sicher das er damit GF100 meinte. Ich finde aber leider nicht mehr die Quelle wo ich das gelesen habe.

Da irgendwo

Pickebuh schrieb:
Eyefinity ist ein nettes Gimmik für Marketing-Präsentationen gut geeignet.
Für Leute die sich tatsächlich aber 3 Monitor auf den Schreibtisch stellen ist es wohl kaum zu gebrauchen da man nicht immer nur PacMan auf Niedrigauflösung spielen möchte.

Kannst du mal deinen BS einstellen? DANKE

Hier für dich:

http://www.hardocp.com/article/2010/01/05/amds_ati_radeon_eyefinity_performance_review/5

z.B.

Bei HardOCP werden die höchsten flüssig spielbaren Einstellungen angegeben, das sollte wohl reichen oder nicht? Von Pacman kann ich da nix sehen :rolleyes:



Noch interessante "Fakten" zum Fermi/A3 Stepping: siehe Link oben

40% yield@448 Shader, für 512 Shader weniger als 20% (über 70% bei cypress, vermutlich eher mehr)
550mm² (cypress 334mm²)
104Chips/Wafer (Cypress 160)
Stromverbrauch 280W
Zieltaktraten 1500-1600MHz-->erreichte Taktraten (max) bei 1400, "volume" eher bei 1200MHz

Dazu ein Zitat: "Intra-die variation is huge, no surprise given TSMC's 40nm process and the 550mm^2 or so that GF100 takes up. Each individual part tends to have different problems, and Nvidia's unfinished homework did not help."

Kurz: Die Abweichung innerhalb des Dies ist zu groß, jeder Chip hat "seine eigenen Macken", so dass man keine gezielte Lösung anwenden kann.

Launch vermutlich im späten Februar, Verfügbarkeit dann irgendwann März.

Wenn noch ein A4 Stepping kommt, kann man nochmal locker 4 Wochen addieren.

Und auf die Derivate ("kleinere Ableger") kann man noch ne Weile warten, da die noch nichtmal Tapeout hatten nach aktuellem Stand. AFAIK. Lass mich aber gern vom Gegenteil überzeugen.

Vom GT200 gabs ja auch keine Ableger im Mainstream-Bereich.

Jeder der also auf eine "GT(X) 350" wartet, kann schon mal für September planen.

Frühestens...
 
@AwesomeSauce
Kleiner Tip....einfach mal Kritik hinnehmen solange sich solche Tests nicht mit anderen Vergleichen/verifizieren lassen.
Wenn sie sie GF100 gehabt hätten, dann hätte man auch direkt mit einer HD5870 gegentesten können.
Wenn nur Werte von einer anderen Quelle genommen haben und mit einem mehr oder weniger nachgebauten System gegengetestet haben, dann ist der gesammte Test witzlos, da mann keine Kontrolle über den Testaufbau und die erzeugten Werte hat.
Ich stehe diesem test extrem kritisch gegenüber, weil die GPUs gerademal in Serienproduktion gegangen sein sollen (woher also die Karte?) und mir kein Test bekannt ist der die Werte auch nur ansatzweise bestätigen kann.

Schreiben kann man letztenendes viel solange es keine Möglichkeit gibt zu vergleichen und nvidia wird einen Teufel tuen die Ergebnisse zu kommentieren.
 
Aha, vorne und hinten erlogen... Naja. Lesen UND verstehen (und manchmal zwischen den Zeilen lesen) soll helfen ;)

Der Post zeigt gar nix. Noch widerlegt er irgendwas. Jedenfalls nicht die Kernpunkte:

"It is too hot, too big, too compute focused, not graphics focused, and economically unmanufacturable."

Darum gehts, nicht, ob die Tesselation hier oder da besser gelöst ist.
 
AwesomeSauce schrieb:
Auch für dich noch einmal: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7787935&postcount=9603
Was Charlie erzählt, ist vorne und hinten erlogen...

Ich schaue mir es nicht an, weil ich keine Lust hab mich damit zu befassen.

Fakt 1 ist: http://www.gamestar.de/kolumnen/1953905/jubel_prler.html
Fakt2 ist das Charlie sehr oft in letzter Zeit recht hatte (Besonders in den wichtigen Kernpunkten...). Ob das Zufall war ist ne andere Frage, aber es so hinzustellen, als wäre alles was er gesagt hat nie eingetreten ist einfach falsch!
 
Geht doch nur um ne Graka(s). Was sich manche hier so verrückt machen (lassen). Ich hab noch meine GTX260 1792MB drin. DAmit geht auch noch alles. Selbst Crysis geht auf enthusiast(was ich schon zum anschauen finde aber sonst schwach). Das darf man ja garnicht mehr sagen, da manche meinen man braucht immer das neuste... .
Mal davon gehört das sich die Leistung vom PC alle 1,5 Jahre verdoppeln soll?! Aber ws ist mit der Software?! Also ruhig bleiben und ich hol mir wenn die Gf100 raus sind nach reiflicher Abschätzung zwischen ATI &Nv was neues, Ende des JAhres:)
 
Ich versuch mal, sachlich zu antworten:

@wadenbeisser
Die Benchmarkergebnisse der GF100 und der GTX285 entstanden im Beisein von vielen Redakteuren, u.a PCGH war auch dabei:
http://www.youtube.com/user/PCGamesHardware?feature=chclk#p/u/1/lRMU7-i6ZSk
http://www.youtube.com/user/PCGamesHardware?feature=chclk#p/u/0/AAD_NcEA2SM

Nun konnten die Jungs natürlich die GF100 nicht mit nach Hause nehmen. Also was tun sie? Sie fragen Nvidia, auf welchem System das Ganze denn lief, Nvidia gibt Auskunft. Dieses Testsystem (CPU, Windows, RAM, Mainboard) stellen sie in ihren Laboren nach und erreichen mit ihrer GTX285 nur um 2% abweichende Werte von den NVidia-Benches. Nun testen sie die HD5870 auf genau selbem System und erreichen besagte Werte. Das hat nichts mit "simuliert" zu tun... Zum Vergleich erreichen die GTX285 UND die HD5870 bei PCGH in besagten Settings und Testsystem sehr vergleichbare Werte (im Bereich von 4-5%). Was daran nicht nachzuvollziehen ist, verstehe ich nun wirklich nicht:confused_alt:
Wenn sie sie GF100 gehabt hätten, dann hätte man auch direkt mit einer HD5870 gegentesten können.
Die GF100 gabs nur bei Nvidia selbst zu sehen, sie waren bei den Benchmarks aber Live dabei, wie die Videos auch beweisen...

@KAOZNAKE
Charlie behauptete, GF100 hätte keinen dedizierten Tesselator. Seit heute wissen wir, dass er aber deren 16 besitzt -> Lüge!
Charlie behauptete, die Fermi-Architektur halte keine 512CCs aus -> Lüge!
Yields für den GF100 (448CCs) liegen bei 40% - angesichts der komplexen Strukturen ein ziemlich hoher Wert. Nichts mit unmanufacturable -> Lüge!
too compute focused, not graphics focused
Klar, die Steigerung der Geometrieleistung, die Tesselatoreinheiten, die verbesserten TMUs sind natürlich nicht Grafikorientiert:rolleyes: Wieso zusehr auf GPGPU ausgelegt? Davon kann man nur profitieren:confused_alt:

Zu Verlustleistung/Leistungsaufnahme kann noch keiner etwas sagen... auch der allwissende Charlie nicht!
 
AwesomeSauce schrieb:
[...], u.a PCGH war auch dabei:

Ja, die PCGH ist im gesamten Internet im Prozessor und Grafikbereich als sehr neutral verschrien
Auf Deutsch: Ich kaufe mir die PCGH selber aber im Prozessor und Grafikbereich vergleiche ich dann doch lieber mit nen paar anderen Ergebnissen ;)
 
JokerGermany schrieb:
Ja, die PCGH ist im gesamten Internet im Prozessor und Grafikbereich als sehr neutral verschrien

Ach komm, es wird langsam peinlich mit den ganzen Verschwörungstheorien.:rolleyes:

BTW: http://ht4u.net/reviews/2009/amd_ati_radeon_hd5870_part2/index33.php
http://www.gamestar.de/hardware/tests/grafikkarten/pcie/1959128/radeon_hd_5870_mit_directx_11_p2.html#EL_12535361771478108793482
Nur um einige zu nennen... Kommen alle auf die selben Werte (+/- 3-4 FPS)
 
Zuletzt bearbeitet:
AwesomeSauce schrieb:
Charlie behauptete, GF100 hätte keinen dedizierten Tesselator. Seit heute wissen wir, dass er aber deren 16 besitzt -> Lüge!
Charlie behauptete, die Fermi-Architektur halte keine 512CCs aus -> Lüge!
Yields für den GF100 (448CCs) liegen bei 40% - angesichts der komplexen Strukturen ein ziemlich hoher Wert. Nichts mit unmanufacturable -> Lüge!

Klar, die Steigerung der Geometrieleistung, die Tesselatoreinheiten, die verbesserten TMUs sind natürlich nicht Grafikorientiert:rolleyes: Wieso zusehr auf GPGPU ausgelegt? Davon kann man nur profitieren:confused_alt:

Zu Verlustleistung/Leistungsaufnahme kann noch keiner etwas sagen... auch der allwissende Charlie nicht!

Über den Tesselator kann man streiten. 16 "irgendwas-units" im Shader integriert würde ich nicht als dedizierten Tesselator ansehen, einfach weils keiner ist. Du kannst nicht 16 Kondensatoren in ein Notebook einbauen und behaupten, du würdest einen Akku verbaut haben.

Zu der 512 Shader Geschichte: Charlie hat gesagt, das NVIDIA vorerst nur 448 Shader Grakas verkaufen wird, von speziellen und besonders seltenen (und vor allem teuren) Versionen abgesehen. Er hat NIEMALS gesagt, Fermi könnte keine 512 Shader "aushalten"

Yields bei 40%, für ein A3 Stepping UND noch beschnitten (448 statt 512 Shader) UND NOCH geringere Taktraten ist das einfach miserabel und wirtschaftlich nicht sinnvoll. Wenns keine Konkurrenz gäbe, könnte man drüber diskutieren. So aber nicht.

Tesselator ist nötig, um DX11 zu bekommen. Da hatten sie einfach keine Wahl. Gesteigerte Geometrieleistung ergibt sich IMO automatisch mit mehr Shadern bzw. muss man das eh machen, um keine Engstelle zu erzeugen. Und was wie warum weshalb verbessert wurde, muss man noch sehen.

Zur TDP: Festgelegt hat er sich ja (280W auf der CES), kannst gern hingehen und hinterher laut schreien: Ich habs besser gewusst, Charlie hat VOOOOOOOOOOOOOOOOOOOOOOOOOOOOLLLLL daneben gelegen ;)
 
KAOZNAKE schrieb:
Kannst du mal deinen BS einstellen? DANKE

Hier für dich:

http://www.hardocp.com/article/2010/01/05/amds_ati_radeon_eyefinity_performance_review/5

z.B.

Bei HardOCP werden die höchsten flüssig spielbaren Einstellungen angegeben, das sollte wohl reichen oder nicht? Von Pacman kann ich da nix sehen :rolleyes:

Immer wieder schön zu hören wie toll doch Eyefinity ist und was man damit alles machen kann.
Ich hoffe doch du sitzt jetzt selber mit 3 Monitoren da und bist von Eyefinity überzeugt.
Wenn nicht ist jeglicher weiterer Kommentar überflüssig. :rolleyes:

Hier mal ein "richtiges" Game !
https://www.computerbase.de/2009-10/test-ati-eyefinity-im-spieletest/7/#abschnitt_crysis_warhead
Ups 2-3 FPS ... Na da lohnt es sich wenigstens die Monitore als Bilderrahmen zu verwenden. :evillol:
 
Zuletzt bearbeitet:
Zurück
Oben