News Fermi: Und täglich grüßt das Gerüchte-Murmeltier

Status
Für weitere Antworten geschlossen.
Crysis ist ein Sonderfall und sollte IMHO auch so behandelt werden.

Ansonsten:
Tesselation war wohl auch Bestandteil von DX10, wurde aber auf nVidias drängen rausgeworfen.
Übrigens hat Demirug von 3DC mal gesagt, das am Schluss DX10 nicht einmal mehr unified shader vorrausgesetzt hat, so aufgeweicht wurde das ganze.

Die DX10.1 Abstinenz von nV war laut einiger Spezis bei beyond3d eine Ausgeburt der Marketingfuzzis, die Engineering Teams wollten 10.1 schon im GT200 haben.
Wohl auch einer der Gründe, warum Derek Perez abgesägt wurde.

Es wäre wohl wünschenswert, wenn nV mehr auf die Ingenieure als auf die Power-Point fuzzis hören würde.
 
Zuletzt bearbeitet:
Diese Games nutzen Truform=Tessellation auf Ati Karten
http://en.wikipedia.org/wiki/TruForm
Beginning with Radeon X1000, TruForm is no longer advertised as a hardware feature. However, Radeon 9500 and higher (as well as hardware supporting Shader Model 3.0) include Render to Vertex Buffer feature, which can be used for tessellation applications.[1] In the case of Radeon X1000 series, it supports binding up to 5 R2VB buffers simultaneously. Tessellation as dedicated hardware returned in Xenos and Radeon R600 GPUs.
  • Counter-Strike (ati_subdiv "2.0", ati_npatch "1.0")
  • Tom Clancy's Rainbow Six
  • Soldier of Fortune
  • Soldier of Fortune II: Double Helix
  • Quake (TruQuake Patch)
  • Quake 2 (TruQuake2 Patch)
  • Unreal Tournament (TruUT Patch)
  • The Elder Scrolls III: Morrowind (unofficially, with the FPS Optimizer[2])
  • Madden NFL 2004
  • Bugdom
  • Return to Castle Wolfenstein
  • Serious Sam
  • Unreal Tournament 2003 and 2004 (must edit the game's ".ini" file and set "UseNPatches=True")
  • Wolfenstein: Enemy Territory
  • Command & Conquer: Renegade
  • Neverwinter Nights (must edit the game's ".ini" file and set "Enable Truform=1")
man muss es nur aktivieren wenn man eine ältere Ati Karte hat ;)
Ergänzung ()

Ab DX8 :)
Hier auch ein Review für Quake:
http://alt.3dcenter.org/artikel/2001/06-13a.php
 
Mister79 schrieb:
Na da frag ich mich ja, wie es ATI geschafft hat den Rückstand aufzuholen? Ich meine die GTX 285 war schnell oder auch die 8800 GTX. DA hat ATI kaum was entgegen zu setzten gehabt. Aber die hatten ja das Geld um zu forschen und den Rückstand wieder aufzuholen weil Geld ja keine Rolle bei denen gespielt hat oder wie?
Schnell != technologischer Vorsprung. Wann kommt das mal bei allen an? Technologischer Vorsprung lässt sich nicht an reiner Performance festmachen, sondern an Leistungsindikatoren wie Performance/mm² oder Performance/Watt. Und da sah schon eine GTX 285 kaum Land gegen eine HD 4890. Die GTX 8800 war seinerzeit zwar insgesamt etwas besser. Aber auch nicht so dramatisch, wie es teilweise hingestellt wurde. Die 2900er Serie schwächelte an einigen Kinderkrankheiten, die bei einer komplett neuen Architektur immer mal wieder auftreten können und die ATI gezielt bei den nachfolgenden Generation ausgemerzt hat. Ich hatte schon damals gesagt, der R600 ist eine richtig gute Basis. Und mittlerweile sollte auch jedem klar sein, warum.

Mister79 schrieb:
Sonst würden die den Fermi nicht so anpreisen.
Jup. Sie haben auch den Deal mit dem Oak Ridge National Laboratory angepriesen. Was daraus geworden ist, sieht man ja. :rolleyes: Anpreisen kann man viel. Entscheidend ist aber nur das, was man liefern kann. Und das ist bei nVidia bisher leider nur Papier.

Lübke schrieb:
zu dem hat die gt240 auch features, die die 5750 nich hat.
Als da wären? Also eine HD 5750 dürfte immer noch mehr Features haben, die eine GT 240 nicht hat.
 
gruffi schrieb:
Als da wären? Also eine HD 5750 dürfte immer noch mehr Features haben, die eine GT 240 nicht hat.
PhysX, 3D Vision, anständige Linux-Treiber, CUDA... soll ich weiterfahren?
 
AwesomeSauce schrieb:
PhysX, 3D Vision, anständige Linux-Treiber, CUDA... soll ich weiterfahren?
Ja, bitte. Dagegen steht Havok, Bullet, Eyefinity, ebenfalls anständige Linux Treiber, dafür Open Source, Stream, DirectX 11/SM5.0/DirectCompute 5, HDMI 1.3a, Displayport, DP Computing. Von besserer HD Wiedergabe, AA/AF und solchen Scherzen ganz zu schweigen.
Soll ich weitermachen? Schon seltsam, wenn man proprietäre Technologien aufzählen muss, die die Konkurrenz genauso hat, nur anders heissen. :rolleyes:


@Bumbelbee
Also bei etwa einer Million verkaufter Exemplare muss es genug Karten geben. ;)
 
Gruffi schrieb:
Und da sah schon eine GTX 285 kaum Land gegen eine HD 4890.
Die Aussage kann man so nicht stehen lassen. Beide Karten sind ähnlich effizient. Die HD4890 verbraucht unter Spielelastnur etwas weniger als ne GTX285 .Die HD48xx Serie war von den verbrauchswerten kein Knaller im Vergleich zu Nvidia, trotz kleinerem Chip. Die GTX285 ist aber noch gut 10% schneller. Außerdem testet CB Bioshock, welcher Nvidiakarten überdurchschnittlich hoch belastet.
Von kein Land sehen, kann also nicht die rede sein.

Shurkien schrieb:
Seid wann hat ATi vernünftige Linux Treiber?

Gibt schon seit längerem solide ATI Treiber für Linux, das mit den schlechten Treibern in der Hinsicht ist scho etwas länger her.
 
Zuletzt bearbeitet:
Eines bin ich mir zu 100% sicher:

werde keine Karten der ersten Stunde kaufen, ob das alles wirklich so ausgereift ist?

Bin schon öfter damit auf die Nase gefallen - egal ob Nvidia oder ATI.

Wenn die GPU's so komplex werden braucht es eine gewisse Zeit und Revisionen.

Edit:
so ein bisschen böse darf man ja auch Fragen:

wofür braucht man noch so eine schnelle Grafikkarte für den PC? Für welche Spiele?

Der PC Spielemarkt wird von so vielen Herstellern immer als TOD beschrieben...aber 600€ Grakas darf man sich dann gerne einbauen! ;)
 
Zuletzt bearbeitet:
Es gibt noch immer Spiele die auf maximalen Einstellungen PC's in die Knie zwingen z.B. Crysis o. Crysis WH
 
Jo aber die wenigsten dürften Crysis immer noch nach Veröffentlichung zocken - oder? ;)

Habe mit keinem aktuellen Spiel Probleme mit einer:

EVGA GTX285 FTW
Powercolor 5870

Monitor Eizo Foris FX2431
 
Der Artikel hat über 300 Kommentare - dort ist doch reichlich zu den Fälschungen gesagt worden :evillol:
Musst du nur lesen ;)
 
Ganzir schrieb:

Ein Gerüchtekoch. Hier eine Kostprobe.

Er scheint nVidia nicht besonders zu mögen, hat zu Fermi (soweit man das bisher beurteilen kann) relativ genaue Prognosen gestellt, hat aber auch hin und wieder schonmal Blödsinn erzählt.
 
Hin und wieder mal blödsinn?
Der erzählt doch nur Blödsinn

Wenns nach ihm ginge hätte ATi ein Monopol und alle anderen GraKa Hersteller (auch wenns nur welche sind die Onboard Karten bauen) müssten gepfählt werden
 
Niko_74 schrieb:
Habt iht das schon gesehen und kann mir einer was dazu sagen ob das stimmt.

https://www.computerbase.de/2009-12/benchmarks-geforce-gtx-380-360-schlagen-alles/

Lt. Charlie stimmen die Benches wohl ;)

@Shurkien: Dann solltest du die letzten 20 oder so seiner Artikel auf Semiaccurate.com noch (überhaupt?) mal lesen.

Sehr viel Hintergrundinformation und keineswegs nur Blödsinn. Er schreibt nämlich nicht nur (zu Recht) NVIDIA schlecht, sondern berichtet auch über jede Menge anderen Kram. Aber selbst wenn man sämtliche Artikel der letzten Jahre nur bezüglich NVIDIA liest, ist jede Menge Wahrheit enthalten. Leider für NVIDIA. Und wenn die Grünen sich korrekt verhalten würden, würde er auch nicht so schlecht drüber schreiben, ganz einfach.

CoffeeJunkie schrieb:
hat aber auch hin und wieder schonmal Blödsinn erzählt.

So viel zu Blödsinn ;)


"Auch wenn Larrabee selbst nicht auf den Markt kommt, entwickelt Intel den Chip dennoch weiter, wodurch die Veröffentlichung eines Nachfolgers als wahrscheinlich gilt.

Nun scheint auch Sony Interesse an Intels High-End-GPU gefunden zu haben."

Und immer schön dran denken, 1 Jahr ist in der Hardwarebranche ne Ewigkeit, was als 100% sicher galt zu einem gegebenen Zeitpunkt, kann morgen schon wieder überholt sein ;)
 
Zuletzt bearbeitet:
KAOZNAKE schrieb:
Sehr viel Hintergrundinformation und keineswegs nur Blödsinn.
Vor allem die GTX 285 Geschichte zeugt von Insiderwissen.

Markt beobachten, aha Ware wird knapp.
Schnell eine News verfasst "Nvidia zieht sich aus dem High-End Desktop Markt zurück"
Das Ende der anderen GTX 200 hat er nebenbei auch prophezeit.
Etwas später tauchen wieder GTX 285 auf, andere GTX 200 wie die GTX 260 wurden angeblich heftigst nachgefragt, von EOL keine Spur.

Echt erstaunlich seine Quellen.

Er schreibt nämlich nicht nur (zu Recht) NVIDIA schlecht, sondern berichtet auch über jede Menge anderen Kram.
Warum zu Recht, sind die der Satan?
Anderer Kram, naja Kram über seine Lieblingsfirma liest man selten und wenn dann positiv. Die einzige Erklärung dafür ist, das AMD keinerlei Kritikpunkte hat. Mag auf den ersten Blick seltsam erscheinen, aber wenn man genau überlegt erkennt man die Lösung, als Underdog mit fast dem selben Marktanteil (warum eigentlich Underdog?) bekommt man einen Bonus.
 
Weiß man wie hoch die Lagerbestände sind / waren? Daher sagt die Verfügbarkeit der Karten doch nicht viel darüber aus ob diese noch produziert werden oder nicht.

Wenn man sich die Preise der GTX285 anschaut, könnte man auf den Gedanken kommen, dass diese kaum noch Abnehmer finden wird sobald die 5870 etwas besser verfügbar ist. (Fanboys mal außen vor)

Die Nachrricht des Rückzugs aus dem Highend-Segment war nicht nur auf Semiaccurate zu lesen.
 
Die Rückzugberichte haben wie üblich alle Seiten ohne Überprüfung kopiert, das sagt gar nichts aus.
Allein der Gedanke des Rückzuges ist vollkommen absurd. Man hört von GF100, etwas das ganz und gar nicht nach Mittelklasse riechen will und dann kommt er mit dieser Unterstellung an.

Lagerbestände die aufeinmal auftauchen, nachdem die Lager leer sind ist etwas seltsam.
Zudem sind es nicht wenige Wochen, sondern inzwischen Monate. HD5 hin oder her es ist Quatsch zu glauben das sich deshalb GTX 200 nicht mehr verkaufen. HD4 verkaufen sich ebenfalls noch.

Diese Meldung passt auch wunderbar zu Charlies Meldung: http://www.fudzilla.com/content/view/16275/34/ :rolleyes:
 
Evader schrieb:
Crysis ist ein Sonderfall und sollte IMHO auch so behandelt werden.


So ne Aussage ist O.K. wenn das Spiel gerade rauskommt bzw. seit 1 Jahr auf`m Markt ist, aber das Spiel hat nun über 2 Jahre auf`m Buckel. Wenn`s danach ginge hätte man Ende 2006 FarCry immer noch nicht mit allen Details spielen können. Ich erinnere hier besonders an X1950XTX oder Geforce 7950 GX2. Und es ging.

Und heute: Die vorhandene Technik packt es immer noch nicht. Das einzige was sich seitdem gesteigert hat ist nur der Stromverbrauch und Größe.

Mir fehlen momentan echte Innovationen und Ideen in der Industrie. Da wird nur nach dem Motto "Friss oder stirb"-System produziert. Ganz im Gleichschritt mit der Spiele-Industrie.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben