Bericht Bericht: Nvidia GF100: Technische Details

melemakar schrieb:
Ich meine mal vor einiger Zeit gelesen zu haben, dass der Fermi keine eigene "Tesselator Unit" hardwaremäßig verbaut hat, sondern dies alles softwareseitig emuliert - ist da jetzt eigentlich was dran oder waren das alles nur wieder Gerüchte?
Die Gerüchte haben sich zum Glück nicht bestätigt (wäre eine echte Schwäche gewesen), sondern im Gegenteil: Die Tesselation-Einheit ist richtig mächtig und deklassiert ATI: https://pics.computerbase.de/2/8/1/1/5/26-1080.679260676.png (und das in einem Benchmark, auf das ATI in den vergangenenen Wochen mehr als stolz war)

Bin mal auf die Gaming-Performance ohne extrem hohe Qualitätseinstellungen gespannt. Dort erwarte ich, dass ATI die bessere P/L Alternative sein wird.
 
Was ist denn ein Warp? Das wurde mehrfach im Artikel erwähnt?
 
Wie schon gesagt: die Performance wird nicht das Problem sein, aber wie gut & laut wird sich dieses
"Hitzemonster" kühlen lassen.
 
Schinzie schrieb:
@miagia
du solletst dir mal den eyefinity test von CB anschaun bevor du hier solche behauptunten aufstellst.

Es ist wohl besser du schaust dir den Test mal selber an. (Kleiner Tipp ganz Unten sind die FPS von 3 Monitoren ! ) da geht es dann kräftig in den Keller. :(
https://www.computerbase.de/2009-10/test-ati-eyefinity-im-spieletest/7/#abschnitt_crysis_warhead
https://www.computerbase.de/2009-10/test-ati-eyefinity-im-spieletest/7/#abschnitt_bioshock
https://www.computerbase.de/2009-10/test-ati-eyefinity-im-spieletest/8/#abschnitt_stalker_clear_sky
https://www.computerbase.de/2009-10/test-ati-eyefinity-im-spieletest/6/#abschnitt_anno_1404
https://www.computerbase.de/2009-10/test-ati-eyefinity-im-spieletest/4/#abschnitt_call_of_duty_5

miagia hat vollkommen Recht wenn er sagt das Eyefinity zu viel Leistung für 3 Monitore benötigt als wenn man es mit nur einer Karte verwenden könnte.
Klar kann man auch nur mit 2 Monitoren Spielen aber dazu benötigt man einen sehr großen Balken vor den Augen um den Balken zwischen den Monitoren nicht mehr zu sehen. :freak:
Was nützt also Eyefinity ?
Nur fürs Büro ist es zu gebrauchen. Alles andere was auf Präsentationen vorgeführt wird ist nur reines Marketing-Feature und im wirklichen Gebrauch nicht zu verwenden.

Ich für meinen Teil bin echt gespannt auf die Finale-Version des Fermis als GTX360 oder GTX380. Vorallem weil die Treiber mit Sicherheit noch im frühen Alphastadium sind und in 2-3 Monaten noch deutlich Sprünge nach Vorne machen können.
Das ist bei einer neuen Architektur eben so.
ATI hat mit der 5000er Serie kaum etwas geändert außer die Rohdaten zu verdoppelt sprich die Shader.
Da sind dann die Treiber schon recht gut durch die Vorgängerkarten abgestimmt.
Da wird sich nicht mehr viel tun aber bei NV ist das Blatt noch weit offen.

Und das Video von dem Techdemo für die Haare ist wirklich klasse.
Man stelle sich mal vor in einem RPG werden die Haare der Spielfiguren ebenfalls so natürlich bewegt.
Das ist dann wirklich real ! :cool_alt:
 
wie kann man sowas ein review nennen?

einen staubsauger kann ich auch nicht beurteilen, wenn ich nur all die technischen daten der turbine hab

gab es sowas in der art zu den neuen ati-karten auch? ich will hier nämlich nicht unbegründet behaupten, nvidia bezahlt für gewisse news/reviews ...
 
Eon-Deon schrieb:
@Asfark
Wo war denn die 5000 Reihe ein Papiertieger? Die Leistung ist höher gewesen als die Erwartungen. Oder meinst du das sie schlecht verfügbar war und teilweise immer noch ist? Dann gebe ich dir recht.

Ich rede von der 5xxx Reihe von Nvidia die auf dem Papier echt gut geklungen hat aber in der Leistung nun ja durchwachsen gewesen ist.
 
Bin schon gespannt wie die Performance bei echten DirectX 11 Spielen ist. Ich hoffe die Karten sind nicht nur schnelle DirectX 10 Boliden (betrifft auch ATIs Karten)
 
An alle die meinen, dass AMD/ATi durch einene extrem höhere Leistung der Nvidia Karten in den Boden gestampft werden würde:
Muss nicht sein. Falls die Leistungsunterscheide wirklich so drastisch sein sollten, was ich nur glaube, wenn es harte Fakten gibt, dann bleibt für AMD immernoch die Option, den Preis der HD 5K Serie drastisch zu senken. So wäre z.B. eine HD 5870 für knapp 200 Euro schon wieder ein Schnäppchen und vom P/L her bestimmt empfehlenswert. Dann ist zwar Nvidia im High-End Markt Konkurentzlos, aber die CPU wird sowieso in 98% der Fällen bei einer so hohen Grafikleistung der Limitierende Faktor sein, und den meisten Absatz macht man doch sowieso im Preislich etwas mittlereren Segmenten. Ausserdem soll es ja noch eine Revison des RV870 Chips geben. Sprich: Noch ist das letzte Wort in der Angelegenheit hier noch nicht gesprochen.
 
Asfark schrieb:
Hoffentlich wird das nicht so ein Papiertiger wie die 5000er Reihe damals. :/
Nix mit Papiertiger, denn die Karten haben ihre Leistung gebracht und das nicht nur auf dem Papier. Der GF100 icht nochmal einen Zacken komplexer als der Cypress und somit normalerweise auch problematischer in der Produktion.

Lübke schrieb:
@wadenbeisser: die 50% (eigentlich 40%-60%) stammen von den personen, die das als schwache leistung runterreden.
ich denke auch eher, dass 10% bis 20% realistisch sind, allein weil ein weiteres ausreizen der gpus wirtschaftlich nichts mehr bringt und nur zu lasten der brauchbaren chips je waver gehen würde.

nur dieses gerede ist einfach lachhaft, dass eine exorbitante mehrleistung gefordert und gleichzeitig auch noch schlechtgeredet wird. manche scheinen einfach nur zum bashen hier zu sein.

Nicht umsonst hatte ich nicht deine 50% genommen.... ;)
Das im Vorfeld ein Luftschloss anch dem anderen gebaut wird ist nix neues, denn ich erinnere mich heute noch nur zu gut an das gejammer das beispielsweise die GTX280 die GeForce 9800 GX2 nicht schlagen konnte und jetzt erwartet man eine Leistungssteigerung von über 100%, obwohl das nichtmal der Bericht hergibt.
Ich für meinen Teil halte mir jedenfalls eine grosse Portion Popkorn zum März/April bereit.
Ergänzung ()

Neo_Xsendra schrieb:
@wadenbeisser

was sie davon haben? games in denen bei jedem start steht, das nv die grafikakrte für gutes spielvergnügen herstellt ^^ nennst sich werbung ;)

EDIT: ist sogar die beste werbung die man sich denken kann, denn 100% derer die es erreicht sind auch zielgruppe *g*
Woauf beziehst du dich? auf mein posting ja offenbar nicht. :freak:
 
Vulture_Culture schrieb:
dann bleibt für AMD immernoch die Option, den Preis der HD 5K Serie drastisch zu senken. So wäre z.B. eine HD 5870 für knapp 200 Euro schon wieder ein Schnäppchen und vom P/L her bestimmt empfehlenswert.

Kommt drauf an wie teuer die GTX300er werden.
Kosten da die Karten zwischen 500-600 Euro warum sollte ATI dann den Preis für die HD5870 von 350 Euro senken ?
 
@das punkt

nein ati hat gleich die daten geliefert für nen echten review :rolleyes:

als könnte cb was dafür das nv erstmal nur mit diesen daten rausrückt >.>

hätten sie die daten nicht gebracht, dann hätte viele user (wie auch ich) geschriehen, warum sie den nda mit diesen daten verstreichen lassen, andere seiten würde sie ja auch bringen ...
 
@Vulture_Culture: die hohen erwartungen sind völlig überzogen. mehr als 40% gabs meines wissens nur einmal und das war die 8800gtx gegenüber der 2900xt. und das war wohl auch nur deshalb so extrem, weil ati eine absolute überkarte mit der 2800xt angekündigt hatte und nvidia wohl keine ahnung hatte, wo die reise hingeht. hätten sie die performance vorher gekannt, wäre die 8800gtx vermutlich schwächer ausgefallen um wirtschaftlicher produzieren zu können und die messlatte für die folgekarten (9800gtx) nicht so hoch zu legen.
 
Wäre ja lachhaft, wenn der GF100 nicht schneller als die aktuelle HD58xx Serie wäre.

Die Gerüchteküche dürfte schon richtig zusammengefasst haben:
- im Schnitt zirka 25% schneller als die HD5870
- teuer in der Fertigung (hoher Ausschuß durch riesige Die-Größe)
- teuer im Verkauf (es wird mit bis zu 600 Dollar für eine GTX 380 spekuliert)
- wird bis Sommer/Herbst für den Consumermarkt fast nicht verfügbar sein (dafür im Pro-Bereich)

AMD wird bei einer solchen Preisgestaltung wahrscheinlich nicht viel an seinen Preisen ändern. Nvidia kann es sich momentan nämlich nicht unbedingt leisten, beim Verkauf des GF100 draufzuzahlen.

MfG
 
@DvP
Bild in diesem Post
To differentiate themselves from AMD, NVIDIA is taking the tessellator and driving it for all its worth. While AMD merely has a tessellator, NVIDIA is counting on the tessellator in their PolyMorph Engine to give them a noticeable graphical advantage over AMD.
Quelle: http://anandtech.com/video/showdoc.aspx?i=3721&p=3

Zudem sind fixed function Tesselator-Einheiten Teil der DX11-Spezifikationen. Dazu lege ich dir noch folgende Seite ans Herz: GF100 Design & Why
 
Zuletzt bearbeitet:
@wadenbeisser

doch bezog es sich ... da aus dem artikel ja hervorgeht, dass auch ati davon proffitiert was da drin verbessert wird und nicht nur nv, dachte ich ich geb dir mal den hintergedanken zu so einem vorgehen =P

btw hat asfark doch schon gesagt, der er die 5er geforce reihe damit meinte
 
ich frage mich immer noch was das soll - die meisten werden doch von NVidia verarscht, da die ganzen "preisgünstigen" 3xx Grafikkarten nichts mit Fermi zu tun haben - denn nur ein Bruchteil gibt tatsächlich 200 Euro und mehr für ne Grafikkarte aus. Und diese Verarsche ist richtig mies!

Und ganz ehrlich, ist toll zu wissen, was High-End kann, aber mir ist das auch viel zu teuer und dementsprechend muss ich wohl bis 2011 warten, bis nVidia Fermi für die breite Masse, sprich Mainstream, rausbringt....
 
Zuletzt bearbeitet:
Also ich weiß ja nicht was ihr mit eurer Lautsärke, Hitze und Stromverbrauch habt

Von mir aus kann die Karte auch 300W unter last verbrauchen und 600€ kosten so lang sie brav ihre arbeit macht bin ich zufrieden

Nvidia war schon immer der High end berreich, wer also das Geld für so eine graka hat und das beste vom besten haben will soll sie sich kaufen und wen man so viel geld für sowas ausgibt sollte es einen auch egal sein ob das teil dan 200 oder 180 W verbraucht

Wer das Geld nicht hat kan zu Ati greifen!

Ps ich werd wohl bei meinem CM storm einen Teil der Laufwerkschächte Rausflexen müssen das das 'Teil auch platz hat ;)
 
@Calypso26
Hä? Was willst du mit deinem Post sagen? Nvidia ist doof weil sie ihre neue Architektur im Moment nur für High-End-Chips parat halten? Und wo ist da die "Verarsche"? Leute gibts...

@Floh0664
Zu Zeiten von GreenIT sollte schon auf einen vertretbaren Stromverbrauch geachtet werden. Dass ein solcher Chip ziemlich viel Saft zieht ist klar, aber solange der IDLE-Verbrauch stimmt, sehe ich keine Probleme mit Load-Verbrauch. Spiele nicht 24/7...
 
Zuletzt bearbeitet:
Darf ich an dieser Stelle einmal daran erinnern, dass Silizium einen Wiederstand hat. Es ist meines Wissens mit Silizium reihn Physkalisch fast unmöglich so viele Transistoren auf diesen Taktraten mit weniger als 300 Watt zu befeuern. Wenn es mehr wird sprengt die Karte nicht nur die ATX Spezifikationen sondern wird wohl auch beweisen, das Nvidia ofensichtlich nicht aus Intels Netbrust Sünde gelernt hat. AMD hat gelernt, das es bei der TDP eine Grenze gibt und bietet keine echte HD5970 an. Das hat auch Gründe. Mit Luft wird man so eine Karte (>350W) gar nicht mehr kühlen können.
mfg Verata
 
Dann ist dein Wissen allerdings falsch:freak: GF100 wurde zumindest schon mit Luftkühlung funktionstüchtig gesehen. Infolge dessen kann man deine anderen Annahmen getrost ignorieren... (6+8pin stellen afair 300W zur Verfügung, also nix mit 300+W...)
 
Zuletzt bearbeitet:
Zurück
Oben