News Offiziell: „Fermi“ a.k.a. GT300

Status
Für weitere Antworten geschlossen.
ich hätte da mal eine Frage an die Fortgeschrittenen und Profis:

Aufgrund meiner Enttäuschung was die Leistungsfähigkeit der HD5870, habe ich mir die GraKa-Tests der letzten Jahre (von CB) angeschaut und die Leistungsentwicklung beider Hersteller im Hinblick auf die folgenden Einstellungen verglichen (1680x1050 4xAA/16xAF). Dabei glaube ich die bekannt gewordenen Eckdaten der GT300 zu berücksichtigen:

Wenn Nvidia kein Kracher à la 8800Ultra gelingt, dürfte die Leistung des GT300-Topmodels etwa mit der GTX295 vergleichbar sein (+/- 5%).

Frage 1:
Ist diese Erwartungshaltung gerechtfertigt?!


Wenn es tatsächlich so kommt, wäre das Topmodel der GT300 etwa 20-25% schneller als HD5870. Bekanntlich ist Nvidia aber deutlich teuer. Wenn man die (aktuell bekannte) Besonderheiten vergleicht: Eyefinity vs. PhysX & Raytracing (???):

Frage 2:
Welche Karte dürfte für den Endverbraucher attraktiver und langfristig interessanter sein?
 
Zuletzt bearbeitet:
Zu Frage 1: Die umgelabelten Grafikkarten ziehen den Durchschnitt ja auch runter, ich denke man kann das so schlecht vergleichen, ich denke sie wird noch nen gutes stück schneller (ca 20-25% vor der GTX295).

Attraktiv finde ich persönlich meistens die Ati´s, da sie vom P/L meist besser sind (Gesamtprodukt).

Zu FRage 2:
was meinst du mit langfristig? langfristig deine Stromrechnung bezahlen?

Also wenn du die 5870 zu lahm findest, naja dann eine 5850x2, 5870x2 (wobei Multi-GPU nie zu empfehlen ist) oder halt ein GT300, wenn du mit hohem Stromverbrauch klar kommst und dich noch bis Ende des Jahres gedulden kannst, wäre das wohl deine Karte.
 
@greatest

Ich glaube, dass der GT300 schneller ist, denn sonst wäre der ganze Wirbel umsonst und NVidia würde doch arg an Glaubwürdigkeit verlieren...
 
Was sollen sie denn deiner Meinung nach machen? Soll nvidia sich hinstellen und sagen wir haben Probleme? Dann können sie gleich einpacken.
 
Und warum nicht?

Was würde denn schreckliches passieren, wenn sie sich z.B. hinstellen und sagen: Sorry, wir sind leider nicht soweit, aber ihr könnt uns alle helfen, damit wir ein gutes und wertvolles Produkt zusammen mit allen entwickeln können. So wie z.B. Tony mit der OCZ Forum Gemeinde neue Firmwares und Tools testen und optimiert. Hab selbst eine SSD und bin super zufrieden mit einer solchen offen Produktpolitik. Jedenfalls besser als verlogen

Greetz,
GHad
 
bin mal auf die oktopus-karte gespannt. wollt schon immer mal eine developer-karte sehen.

Engineering Board-Bilder gibts im Web zuhauf, ich hab zwar keine von nV, aber ne Menge von 3dfx. Schau mal hier: KLICK

Unter 3dfx Not for Resale in der linken Spalte.

Die Dinger sind meist ziemlich hässlich, haben aber trotzdem nen gewissen Charme.

Du solltest vielleicht mal ein paar Stories von Charlie lesen (was ich schon seit Jahren mache) und dir deine eigene Meinung bilden, anstatt nur den Fanboys nachzuplappern (Vielleicht selber einer ).

Charlie bezieht lt. Ail von 3DC von AMD Kohle, damit wäre er definitiv nicht neutral und somit sehen seine ganzen nV Artikel minus Bumpgate "etwas" anders aus in meinen Augen.
Der Typ ist für mich unten durch, egal ob er teilweise Recht hat oder nicht, es gibt auch genug andere "Insider" die den Nagel bei nV auf den Kopf treffen.
Fuad glaube ich genauso wenig, schließlich genisst er "Zucker in den Arsch Blasing von nV", also das gleiche in Grün.

Was die Geforce FX angeht:
Beide Thesen sind richtig, nV bot kein 24 Bit, DX9 (vor allem in HL2) nutzte dies aber. Resultat: Die FX rechnete in 32 Bit (arschlahm, praktisch nicht nutzbar) oder in 16 bit was sie für Entwickler generell als "low end DX9 hardware" deklassierte.

Die FX war von der Shaderengine ein ziemlicher Schuss in den Ofen, das hat auch bei nV jeder gerallt und entsprechend bei der GF6 nachgelegt. Da gabs auch kein 24 bit (gabs bei nV nie), dafür war wenigstens die Leistung für 32 Bit Mode da.

Und die Engines:
Alle Blizzard Titel nutzen eigene Engines, dito bei Valve, die FEAR Reihe verwendet ebenfalls eigene Engines.
Entweder hab ich Geschmacksverirrung und diese Entwickler entwickeln nur unbedeutenden Müll, oder da hat jemand den Spielemarkt durch ein Mauseloch betrachtet. ;)
 
Zuletzt bearbeitet:
... Es war wohl nicht ganz so 'toll', wie es schien. Laut dieser Meldung bei FUDZILLA konnte nVidia kein 'hübsches' Produkt vorstellen, weil ... noch nicht aus dem Labor entlassen ;-) Stattdessen eine Kiste voller Backsteine ...

Es wird noch eine Weile dauern, bis nVidia Hecht ATi Paroli bieten können wird.
 
Ich bin zwar kein ATI Fan aber ich hoffe die Klatsche wird nicht zu stark ausfallen.
 
Evader schrieb:
naja goldsource ist ja nicht grad ne eigene engine. ich kann mich noch an hl1 shots erinnern, da sah das aus wie quake1 :)

thx für den link zu den 3dfx en-sample. am besten find ich die rampage und vom daytona. schade, dass der rampage nie mehr das licht der welt erblickt hat, sonst würde die grafikwelt wohl ein bischen bunter sein.
 
@Kaoznake: Ich mach da aber schon einen Unterschied. Nicht alles was Charlie betreibt ist auch reine Aufklärungsarbeit. Denn wenn er wirklich von AMD bezahlt wird, hat es für mich ganz klar den Anschein, dass er Rufmord betreibt. Analysten und Anleger sind heutzutage sehr sensibel. Dementsprechend reagieren auch die Aktienkurse(haben schon lange nix mehr groß mit wirklichen Ergibniszahlen zu tun). Wenn also einfach mal von ihm Behauptungen aufgestellt sind, die aber nur zur Hälfte, oder komplett nicht richtig sind, dann kann das für ein Unternhemn(im diesem Fall Nvidia) schlimme Folgen haben. Mag sein, dass Nvidia hier und da versucht seinen Weg/seinen Willen durchzudrücken, das versucht AMD aber an anderen Fronten auch. Und bitte erzähl mir jetzt nicht, sofern ATI das Geld dafür hätte, dass sie nicht auch versuchen würden den Markt zu ihren Gunsten zu beeinflussen.
 
@KAOZNAKE:
Ne offizielle Aussage wirst du nie bekommen. Charlie hat mal was dazu geschrieben
ok, das erklärt einiges^^ wenn charly was über nvidia schreibt, ist das der beweis, dass es zu 90% frei erfunden ist. woher sollte ati auch vor mikrosoft wissen, was mikrosoft sich mal ausdenken wird?^^

sry KAOZNAKE, aber du solltest eigentlich wissen, welchen wert charlys aussagen in bezug auf nvidia haben... falls nicht, frag volker mal ;)
 
dass der rampage nie mehr das licht der welt erblickt hat, sonst würde die grafikwelt wohl ein bischen bunter sein.

Nunja, die ganzen Ingenieure die am Rampage beteiligt waren sind jetzt bei nV, einige Konzepte wurden auch übernommenund weiterentwickelt, siehe Geforce 6 Shadercore.
Der NV40 wurde neben Dave Kirk primär von Emmet Kilgariff und Gary Tarolli entwickelt, Emmet war der Kopf des Rampage Teams. :)

Übrigens hatte Goldsource nicht mehr viel mit der Quake Engine gemeinsam, das Ding wurde von Vale zu großen Teilen umgeschrieben und massiv erweitert.
Die Source-Engine heute enthält meines Wissens nach nix mehr von Id.
 
Zuletzt bearbeitet:
Evader schrieb:
Übrigens hatte Goldsource nicht mehr viel mit der Quake Engine gemeinsam, das Ding wurde von Vale zu großen Teilen umgeschrieben und massiv erweitert.
Die Source-Engine heute enthält meines Wissens nach nix mehr von Id.
deswegen ja der ":)".
 
KAOZNAKE schrieb:
Ohhh, die gute alte Glaubwürdigkeitskeule

Nenn mir EINE glaubwürdigere Quelle. ...
CB zum Beispiel?

Im Ernst, dir wird wohl schon selber klar genug sein, welche Beziehung Charlie zu Amd hat und welchen Intentionen er verfolgt. Zudem ist seine "journalistische" Arbeit weder neutral noch objektiv. Mit solch einer Vergangenheit kann man einfach nicht mehr ernst genommen werden. So viel dazu, wobei du wirklich vorsichtiger mit deinen Behauptungen sein solltest; ich habe keinerlei Vorzug zu irgendeinem GPU-Hersteller, lobe sogar ausdrücklich ATi für die Tolle 5870, so dass ich deine kindischen Vorwürfe nicht verstehen kann.

@bbt: Interessant ist nun, dass nVidia scheinbar auch die echte, lauffähige Karte als ES noch nachträglich zeigen will, damit endlich Ruhe ist von den Verschwörungstheoretikern, dass Fermi noch gar nicht läuft.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben