Bericht Bericht: Nvidia GF100: Technische Details

Pickebuh schrieb:
Es ist wohl besser du schaust dir den Test mal selber an. (Kleiner Tipp ganz Unten sind die FPS von 3 Monitoren ! ) da geht es dann kräftig in den Keller. :(
Auch nen kleinen Tip an dich....Balken 2, 3 und 4 sind die mit 3 Monitoren, denn es muss nicht jeder Monitor mit 1920x1200 fahren sondern man kann sie auch mit 1280x1024 und 800x600 betreiben, was die anderen beiden Balken darstellen.
Die native Auflösung bei drei 24-Zoll-Geräten beträgt in unserem Fall 5760x1200 Pixel. Alternativ stehen dem Käufer noch 3840x1024 oder 2400x600 Pixel zur Auswahl, wobei es sich in beiden Fällen um erweiterte 4:3-Auflösungen (1280x1024, 800x600) handelt
Aus "Test: ATi Eyefinity im Spieletest (2/13); Eyefinity im Detail"
 
Also Nvidia versucht momentan doch nur eins: Kunden mit News uns Blablabla vom Kauf einer ATI abzuhalten. Also normalerweise wäre es echt geil wenn ATI es genauso macht wenn die 300er Karten draußen sind und News zur kommenden ATI Generation etc. bringt.
Finde diese Verarsche seitens Nvidia peinlich. Nvidia war die letzten Jahre mit großem Abstand der Platzhirsch und die haben immmer nur refresh´s gebracht...Die hatten jetzt echt mal genug Zeit.
Dennoch könnte es sein dass ich mir ne Nvidia hole wenn der Vorsprung zu ner 5870 riesig ausfällt. Glaubs aber erst wenn ichs sehe.
 
wie sieht´s mit der multimediafähigkeit aus?
(hd audio)
und wann (ca) kommen die kleinen ableger davon, a´la hd 5670?

@Martricks
bei der verfügbarkeit der high end karten, ist´s auch nicht schlimm, wenn die nachfrage da ein bisschen sinkt :-)
 
Zuletzt bearbeitet:
Martricks schrieb:
Also Nvidia versucht momentan doch nur eins: Kunden mit News uns Blablabla vom Kauf einer ATI abzuhalten. Also normalerweise wäre es echt geil wenn ATI es genauso macht wenn die 300er Karten draußen sind und News zur kommenden ATI Generation etc. bringt.
Finde diese Verarsche seitens Nvidia peinlich. Nvidia war die letzten Jahre mit großem Abstand der Platzhirsch und die haben immmer nur refresh´s gebracht...Die hatten jetzt echt mal genug Zeit.
Dennoch könnte es sein dass ich mir ne Nvidia hole wenn der Vorsprung zu ner 5870 riesig ausfällt. Glaubs aber erst wenn ichs sehe.

Nein mach das nicht! Es ist dann ne nv im Kasten:rolleyes:
 
Einhörnchen schrieb:
Die Tesselation-Einheit ist richtig mächtig und deklassiert ATI: https://pics.computerbase.de/2/8/1/1/5/26-1080.679260676.png (und das in einem Benchmark, auf das ATI in den vergangenenen Wochen mehr als stolz war)

Sorry aber die gelieferten Daten reichen doch gerade noch für Spekulationen. Ich würde es auch schön finden wenns so wär (warum hab ich ausreichend erklärt), da ich auch wenn ich ATI/AMD sympatischer finde, absolut nichts davon habe wenn nVidia kein starker Gegner mehr ist.
Was sagst dir (nur als Beispiel), dass der Fermi hier nicht unter Stickstoff auf 50%+ Takt gelaufen ist ;-) Wäre definitiv möglich und würde den gemachten Angaben nicht widersprechen.

Neo_Xsendra schrieb:
nein ati hat gleich die daten geliefert für nen echten review :rolleyes:

Das ist kein Review...vermerkt der Autor ja selbst auch, wenn auch etwas eigenartig.

AwesomeSauce schrieb:
Natürlich hat der GF100 dedizierte Tesselator-Einheiten (fixed function), und zwar je eine pro Polymorph-Engine Da ist gar nix "Software"...
Zudem sind fixed function Tesselator-Einheiten Teil der DX11-Spezifikationen.

Tja, anfangs gings ja um eine dedizierte Tessalation Unit ;-) Außerdem steht polymorph Engine ja auch für die Software die dort arbeitet, oder willst du mir sagen, dass das ein Ausdruck für einen separaten Hardware-Bauteil ist ;-) Kann man aber mit Sicherheit auch so lange diskutieren bis keiner mehr Recht haben kenn.
Danke auf jeden Fall für Hinweis und Link. Es sieht bzgl. Tesselation zum Glück wirklich besser aus als ich befürchtet hatte. Eine Schwäche in diesem Bereit von nVidia hätte wieder nur dazu geführt, dass wir und die Spiele davon kaum profitieren würden. Verstehst du was ich meine?

Martricks schrieb:
Dennoch könnte es sein dass ich mir ne Nvidia hole wenn der Vorsprung zu ner 5870 riesig ausfällt. Glaubs aber erst wenn ichs sehe.

Klar, warum denn auch nicht! Wenn doch alle so denken würden, dann gewinnt mal jener der in Preis/Leistung das beste bietet und die Jungs müssen sich alle voll ins Zeug legen, ohne blindes Fangefolge. Ich will ja auch, dass AMD Intel mit den nächsten Prozessoren so richtig in den Boden rammt obwohl ich aktuell nen Q6600 hab und ne nVidia obendrein :-) Aber zu viele checken das wohl nicht und schimpfen mich wohl hinter vorgehaltener Hand als Fanboy. :lol:
 
Zuletzt bearbeitet:
Okay, wieder reine Marketing-Veranstaltung mit kaum verwertbaren Details.

Um die Graka bewerten zu können fehlen so viele Fakten:

Benchmarks
Kühllösung (Verbrauch, Temps + Geräuschkulisse)
Preispositionierung

Ohne (mindestens) diese Facts ist alles nur flamewars und Spekulation, unterhaltend aber nicht substantiell.

Freuen wir uns einfach auf den Schlagabtausch im Frühjahr. Ein bisschen Bewegung im Markt sollte uns Kunden ja entgegenkommen.

Btw...ein paar games die entsprechend Leistung ziehen und heraussragende Optik schaffen, sollten dann auch noch kommen...
 
wadenbeisser schrieb:
Auch nen kleinen Tip an dich....Balken 2, 3 und 4 sind die mit 3 Monitoren, denn es muss nicht jeder Monitor mit 1920x1200 fahren sondern man kann sie auch mit 1280x1024 und 800x600 betreiben, was die anderen beiden Balken darstellen.

:freak:
Was soll man auf diese Erklärung antworten ?
Gut dann geht halt Eyefinity mit drei 800X600er Monitoren. :freaky:
Aber mir ist da immer noch ein 1920x1200 Monitor lieber.
 
CB: 5870 Stalker@5760x1024 avg. 21,4 fps = zu wenig fps
5870 Crysis@5760x1024 nur avg. 22,7 fps = zu wenig fps

alles klar... ich hab auch nicht gesagt das Eyefinity schlecht ist ich finds witzig und nur weil dein chef laut denkt wirst du zum eyefinity-fanboy? Eyefinity wird fuers gaming nunmal teuer und wenns nur um office geht dann gibts wirklich guenstigere loesungen. Z.B. ein AMD-Mobo 780G Chipsatz + Graka (Ati3450) ist gut fuer 4 Monitore gut und stellt zudem ein sehr sehr preisguenstiges system dar. Aber naja wenn der chef laut denkt hat der arbeitet zu schweigen ;D spass bei seite
THG hat mal vor urzeiten sowas angerissen wurde damals aber nicht so gehyped...

das mit dem stromverbrauch habe ich ironisch gemeint. und zum arbeiten benutzte ich auch sehr gerne zwei monitore allerdings habe ich meine alten 19" endgueltig als auch zweitmonitor abgestellt, er fiept einfach zu abartig laut zum arbeiten! ich ueberlege nun meinen 24'' zu verschenken und mir zwei 22"er zu kaufen...

noch fragen ?!
 
Einhörnchen schrieb:
Die Gerüchte haben sich zum Glück nicht bestätigt (wäre eine echte Schwäche gewesen), sondern im Gegenteil: Die Tesselation-Einheit ist richtig mächtig und deklassiert ATI: https://pics.computerbase.de/2/8/1/1/5/26-1080.679260676.png (und das in einem Benchmark, auf das ATI in den vergangenenen Wochen mehr als stolz war)

Bin mal auf die Gaming-Performance ohne extrem hohe Qualitätseinstellungen gespannt. Dort erwarte ich, dass ATI die bessere P/L Alternative sein wird.

Wenn man bedenkt das der wert von Nvidia kommt ist das ergebniss eher lächerlich!Grade 20 FPs schneller.Davon kannst du gerne noch 10 fps abziehen weil der wert von Nvidia kommt!
 
Pickebuh schrieb:
Was nützt also Eyefinity ?
+ @ miagi

Nur weil die Graka für das Feature in den extreme leistungsfressenden Spielen zu langsam ist, ist es noch lange nicht sinnlos. Guck dir doch mal selber an welche Games du listest und bei der Auflösung wird dich wohl auch kaum etwas überraschen. Bei Racing Games is Triple Monitor beispielsweise extrem genial und bis auf Shift wird da wohl auch jedes Spiel in 3x1080p laufen.

Btw. die 3D Funktionen von nVidia sind auch nicht gleich deswegen fürn Arsch weil vielleicht nicht jedes Game damit gut läuft oder ich vielleicht sogar einfach keine Brille aufsetzen will. Eurer Argumentation fehlt doch jegliche Sinnhaftigkeit.

Achja, und es ist natürlich ganz logisch Mobo und Graka auszutauschen wenn man einen bestehenden Rechner mit einem Triple Monitor Setup ausstatten will :freak: "Eyefinity-fanboy", nur weil ich das Feature nicht gleich sinnlos finde wegen deines lächerlichen Beispiels der beiden Games mit der Auflösung. Aha, ok :p
 
Zuletzt bearbeitet:
Lübke schrieb:
@Vulture_Culture: die hohen erwartungen sind völlig überzogen. mehr als 40% gabs meines wissens nur einmal und das war die 8800gtx gegenüber der 2900xt. und das war wohl auch nur deshalb so extrem, weil ati eine absolute überkarte mit der 2800xt angekündigt hatte und nvidia wohl keine ahnung hatte, wo die reise hingeht. hätten sie die performance vorher gekannt, wäre die 8800gtx vermutlich schwächer ausgefallen um wirtschaftlicher produzieren zu können und die messlatte für die folgekarten (9800gtx) nicht so hoch zu legen.
Wo hatte die 8800GTX gegenüber der 2900XT eine Mehrpeistung von 40%?
Die 2900XT kam deutlich später auf den Markt und lagt je nach Grafikeinstellung relativ kurz hinter der GTX oder weit abgeschlagen, wenn alle schwächen mit einflossen (Optimierung der DX10 Spiele + FSAA)
https://www.computerbase.de/2007-05/test-ati-radeon-hd-2900-xt/32/#abschnitt_performancerating

Neo_Xsendra schrieb:
@wadenbeisser

doch bezog es sich ... da aus dem artikel ja hervorgeht, dass auch ati davon proffitiert was da drin verbessert wird und nicht nur nv, dachte ich ich geb dir mal den hintergedanken zu so einem vorgehen =P

btw hat asfark doch schon gesagt, der er die 5er geforce reihe damit meinte
Nix für ungut aber das Forum schläft beim Posten den schlaf der gerechten und allein das absenden des Postings hatte fast 5 Minuten gedauert....
Mich gemeint kannst du aber trotzdem nicht haben da sich den Posting weder auf die Mehrleistungsgeschichte, noch auf die Sache mit der Unterstützung der Programmierer bezog. Da war nirgens eien Frage was sie davon hätten.
 
ich hab auch nicht gesagt das es fuern arsch ist ich hab nur gesagt das man um eyefinity richtig geniesen zu koennen z.B. auf 3 monitoren was sehr cool ist mehr als eine 5870 braucht! mehr hab ich nie gesagt. Und mal erlich wenn du dir da 3 monitore hinstellst bist du dann zufrieden damit nur alte games zu daddln?! Ausserdem besodners fuer rennspiele braucht man viele fps damits noch bei hohem tempo fluessig rueberkommt.

bzw. das spiel muss auch auf solche aufloesungen einegstellt sein das blickfeld von cod4 ist beispielsweise nicht aufloesungsabhaengig, bei mehr pixeln in der breite wird einfach das bild breiter weil der blickwinkel nur von einer configeinstellung abhaengt und die ist glaube ich max 90° beim promod sogar max 80°

diese nVidia 3D geschicht finde ich auch witzig bzw. auf so nen 120Hz TFT bin ich schon tierisch heiss! dir muss aber klar sein das du fuer diese 3D geschicht nochmal extra grafikpower im vergleich zu 2D brauchst sonst gehen die 3D-Frameraten runter.
 
ich seh es wie martricks,

nvidia haut im 2-3 tagesrythmus pseudoinformationen raus, die eigentlich keiner mehr lesen will, nur in der absicht kunden vom kauf einer ati abzuhalten. alleine schon deshalb würde ich mit eine ati kaufen wenn ich denn eine neue graka bräuchte.

mir gehen die nutzlosen ferminews tierisch auf die nerven. nvidia glaubt doch tatsächlich das sich die kunden auf jedes infohäppchen wie auf den heiligen gral stürzen. erst die miese verfügbarkeit und die preistreiberei der gtx 260-295 und jetzt das fermigeprahle, eine chip der sich um mehr als ein halbes jahr verspätet. nvidia verliert an symphatie. andere probleme wie das ständige renaming verstärken diesen trend.

wer sieht es auch so oder anders?
 
Experte18 schrieb:
Grade 20 FPs schneller.Davon kannst du gerne noch 10 fps abziehen weil der wert von Nvidia kommt!
Der Name ist wohl nicht Programm, was?:rolleyes:

Es sind immerhin nicht nur AVG-Zahlen, wie wir hier präsentiert kriegen... Zudem ist der Benchmark für die HD5000-Reihe geschrieben worden, was die gebotene Leistung noch erheblicher macht.

Deine 20FPS sind immerhin ein Plus von 50%-80% in einem ATI-Benchmark.

@snakebite
Sehe ich komplett anders. Der Chip ist aus technologischer Hinsicht eine höchst interessante Angelegenheit. Die komplett neue Handhabung der Geometriedaten ist herausragend und war der Grund, weswegen sich der Chip so sehr verspätet hat (OoO Design). Dass Nvidia nun endlich an der Geometrieleistung (enorm) geschraubt hat, ist höchst erfreulich, folgen sie damit doch dem Pfad, den ATi seit der R8500 beschreiten wollte...
 
Zuletzt bearbeitet:
Pickebuh schrieb:
:freak:
Was soll man auf diese Erklärung antworten ?
Gut dann geht halt Eyefinity mit drei 800X600er Monitoren. :freaky:
Aber mir ist da immer noch ein 1920x1200 Monitor lieber.

Auch mal alles lesen, denn da stand auch was von 1280x1024, was z.B. auf den guten alten 19" 5:4 Monitoren gefahren wurde. Dazu gibt es,man mag es kaum glauben, auch Bildschirme mit 1680x1050, die womöglich deutlich interessanter sind und Eyefinity soll inzwischen auch von Crossfire profitieren. Ein weiterer Punkt ist auch noch das man z.B. bei Crysis Warhead – 4xAA/16xAF sieht das da bereits der Grafikspeicher aus allen Nähten platzt.
 
@ Snakebite: Der Werbedruck wird sich bis zum Release noch deutlich erhöhen...bis dahin kannst Du dann Fermi rückwärts singen...:evillol:
 
hersteller benchmarks sind immer sehr handverlesen und nicht wirklich aussagekräftig, egal ob sie von amd, nvidia oder intel stammen, deshalb gehe ich davon aus das der reale geschwindigkeitsvorteil warscheinlich um einiges kleiner ist.
hauptprobleme des chips ist sicher die grösse und die yields, wenn die ca. 550mm2 stimmen (die hier von jemanden gepostet wurden) dann ist der chip nur minimal kleiner als die ersten gt200 chips. Dafür sind die ausbeuten beim 40nm prozess aber bedeutend schlechter als beim alten 65nm. das spricht dafür dass die chips zumindest am anfang einiges teurer werden als die gt200 generation. und die war am anfang auch nicht wirklich rentabel für nvidia bei den preisen für die sie aufgrund des drucks von amd verkauft werden mussten.
im vergleich zu amd ergibt sich eine etwa 50% grössere chip fläche, da wie bereits erwähnt die fläche aber nahezu quadratisch in die yields eingeht (verschnitt steigt mit grösse der chips, fehlerquoten auch) muss nvidia froh sein wenn die kosten des chips von nvidia nur etwa doppelt so hoch sind wie die bei ati.

dazu kommt dass das PCB sicher auch komplexer und teurer zu produzieren ist mit dem breiterem speicher bus.
Im endeffekt denke also wenn die single GF100 nicht in etwa die leistung der ati dual gpu karte erreicht, dann werden sie amd schwer unter preisdruck setzen können sondern sich eher darüber freuen dass amd momentan eher high price verkauft.
 
Zuletzt bearbeitet:
wadenbeisser schrieb:
Auch mal alles lesen, denn da stand auch was von 1280x1024, was z.B. auf den guten alten 19" 5:4 Monitoren gefahren wurde. Dazu gibt es,man mag es kaum glauben, auch Bildschirme mit 1680x1050, die womöglich deutlich interessanter sind und Eyefinity soll inzwischen auch von Crossfire profitieren. Ein weiterer Punkt ist auch noch das man z.B. bei Crysis Warhead – 4xAA/16xAF sieht das da bereits der Grafikspeicher aus allen Nähten platzt.

das habe ich auch egrade gedacht wenn der vram voll ist wars das... naja eventuell ist auch kein LCD-TV denn man sich dreist auf den schreibtisch stellt eine alternatve, ist nicht das selbe aber eventuell deutlich guenstiger :D
 
Zurück
Oben