News Nvidia GF100 „Fermi“ gesichtet und mehr

Status
Für weitere Antworten geschlossen.
Ich zeig dir garnichts hast ja schon genug verlinkt. Das was man da immer sieht sind paar Splitter die da rumfliegen, bei BF BC 2 reisse ich ganze Wände nieder ohne NV PhysX.

EDIT: Weiss ja nicht wo du lebst aber ein Kollege von mir zockt mit seiner ATI, BF BC 2 auf High :)

Du checkst einfach nicht was ich mit schlechter Umsetzung meine gell ? Sehr lustig oder du willst es nicht checken ;)

Schicht im Schacht hab keine lust mehr mit dir zu reden. Ausserdem ruft das warme Bett :)
 
Zuletzt bearbeitet:
Ja toll da haste jetzt irgendeinen Nebel der da deinen Batman einhült, irgendwelche Funken sprühen oder Fahnen realistisch im Wind wehen. Sind ja schöne Effecte sag ich ja gar nichts gegen aber auch ohne Mindert das bei mir den Spielspass gleich 0. Deine Spiele sind für Physx konzipiert sprich für Nvidia. Spiele Die für ATI konzipiert sind können das auch. Und ich kauf mir keine Nivdia Karte nur weil da im Intro das Nvidia Logo leuchtet.

PS: Ich hab hatte auch eine Nvidia Karte das erste Physix Spiel das ich hatte war Mirrors Edge. Das Game ist wenn Physx an war nach 5 Min abgeckakt und da hat auch der tolle Patch nichts gebracht.
 
@selektiv

und du ingorierst schonwieder Crysis und BF BC2 ...

Es hat niemand gesagt das die >Effekte< schlecht umgesetzt sind sondern die >>Technik<<

aktuelles PhysX benötigt ne 2. nV Graka (glaub 260er is da ein "muss" wenn nicht sogar ne 270) und das kostet nochmal ~200€

Die Effekte könnten aber auch viel effektiver bzw besser auf CPU z.B. berechnet werden ... PhysX wurde einfach Technisch verkrüppelt. Und damit es überhaupt eine daseinsberechtigung hat, werden spiele geschnitten und dann mit PhysX beworben ...

Super und dann ruckelts teilweise ...

aber Vllt holt ja die einzelne Fermi den Hammer raus und schafft Spielen UND PhysX mit einem mal .... ohne zu ruckeln
 
ach ist das herlich, lange nicht mehr so gut gelacht^^

nur so als Anmerkung, PhysX ist nicht der Stein der weisen, gab schon vorher Physik berechnugen und gibt es auch parallel in vielen schon genannten spielen gut gelöst.

Was NV da mit angestellt hat, ist auch nicht schön da können einigen flamen wie sie wollen^^ aber trotzdem ist das für die News hier absolut unwichtig.

mein tipp an alle Ignoriert die ganzen Fanboys, last uns abwarten und Tee trinken.
 
Na, dann bin ich mal auf die Werte+Preise gespannt. Allerdings liegt da wohl nen Übersetzungs-/Verständigungsfehler vor.
Entweder ab 29.03. bestellbar oder schon lieferbar, was denn nun??? :confused_alt:
NV-Tesselation-Benchmark.jpg

 
Zuletzt bearbeitet:
Falls wie wir hier schon vermuten anfangs nur relativ wenige Fermis auf den Markt kommen werden, werden diese unabhängig von der Leistung und Relation zu den ATI Karten zum Preis verkauft, den Nvidia möchte. Es gibt genügend Leute, die den geforderten Preis bezahlen werden. :D
 
Wer spielt schon den ganzen Tag Batman? PhysX wird es nie bei Blockbuster Spielen geben, da die Entwickler dort gut genug sind, solche Effekte auch ohne das einzubauen. Rauch und herumfliegende Gegenstände, sowie zerstörbare Umgebung geh auch ohne PhysX. Nur weil ein paar schlechte Spiele sich das von Nvidia bezahlen lassen heisst das noch lange nicht, dass das zum Standard wird. Wenn jedes Spiel das haben würde, dann würde ich es ja verstehen. Aber die hier genannten Spiele sind so schon schlecht, da hilft auch die Atmosphäre nicht viel. Und tut mir leid, aber wer nur weils geil aussieht rumläuft und in Wände schiesst, Tücher zerfetzt oder Eisklötze zerschlägt, dem ist sowieso langweilig und nicht mehr zu helfen.
 
derschlambi schrieb:
@Hardware_Hoshi

600€ für einen Dual-Fermi :D Geh lieber ins Bett und träum da weiter...

Du bist uns übrigens noch eine Erklärung wegen der 40 nm Fläche schuldig ;)

Ersteinmal bin ich garnichts schuldig :D Bei zu viel editieren passieren Fehler und ich stehe zu meinen Fehler. Der Sinn wurde evtl. verfälscht, aber man weiß was ich gemeint habe, deshalb editiere ich da nicht mehr drin herum.

600€ für Dual?
Was die 600€ für den Dual-Fermi angeht, warum nicht? Sollte eine GTX270 wirklich wie ich phantasiert habe bei ~350€ landen, kann man durch Aussschuss oder Modifikation bestimmt irgendwie für 600€ zwei abgespeckte Fermis mit insgesamt unter 300W zusammenbasteln. Vergleiche das mal mit einer ATI 5830, die eigentlich eine stark kastrierte 5870 ist (allerdings mit Tücken). Das lässt sich bestimmt irgendwie hinbiegen.

Selbst wenn ein Dual-Fermi zwischen 600-700€ kosten würde. Solange sie eine ATI HD5970 schlägt, hätte Nvidia die Performancekrone (was sie ja immer wollen). Ich halte das nicht für einen Traum, sondern zumindest halbwegs logisch wenn ich es mit den Preisen der alten G200er vergleiche.
 
@selektiv

Was du da laberst ist das schlimmste Fanboy-Getrolle, dass ich seit langem gehört habe. Einfach nur peinlich ;)
 
derschlambi schrieb:
@selektiv

Was du da laberst ist das schlimmste Fanboy-Getrolle, dass ich seit langem gehört habe. Einfach nur peinlich ;)

aber auch lustig. ich hoffe ihr macht morgen weiter, wird ein fieser tag im büro, da kann etwas erheiterung nicht schaden *g*
 
Mehr als Lachen kann man über den Schlumpf eh nicht. So etwas kann man gar nicht ernst nehmen ;)
 
Hallo zusammen,

@ Hardware_Hoshi

Damit du nicht mehr weiter so angestrengt in die Glaskugel schauen mußt, kann ich dich beruhigen, die 480er war kurzzeitig schon gelistet und zwar mit 600 Dollar, die Preise wurden aber wieder entfernt, weshalb auch immer. Inweiweit dies in Euro umgerechnet wird, da mußt du wiederum angestrengt in deine Glaskugel schauen.

Achso, bevor ich es vergesse, die GTX 470 wird so schnell nicht kommen, Nvidia hat darauf hingewiesen, daß erst einmal nur der GTX 480 zu Haben sein wird. Und die Mittelklasse dann irgendwann im laufenden Jahr. Angesichts der Marketingpolitik von Nvidia war es sicherlich weise nicht zu erwähnen, in welchem Jahr konkret diese Mittelklasse auf den Markt kommen soll:p.

@ All

Und noch etwas für diejenigen, welche solcher Art auf die sogenannten "Phys-X Effekte" geben, ich habe auch Batman Arkham Asylum mit der Karte aus meinem Profil gespielt mit genau den Taktraten, nicht die geringsten Probleme. Allerdings war ich schon schwer enttäuscht von den Effekten. Ich habe da ehrlich gesagt nichts gesehen, was nicht auch mit einer CPU-Berechnung machbar wäre.

Da wurde z. B. bei Crysis schon weit mehr an Effekten auf der CPU berechnet, welche sich im Spiel deutlich bemerkbarer machten und zumindest bei mir war meine CPU nie mehr als 75 - 80 % ausgelastet. Phys-X ist in meinen Augen ein ziemlicher Marketing-Gag, nicht mehr, ein Ressourcenfressender noch dazu. Und um das klar zu stellen, ich habe eine Nvidia-Karte und bin niemandes Firma Fanboy.

So long.....
 
Zuletzt bearbeitet:
Schön das du du weißt was bei mir den Spielspass mindert:freaky:

und ausserdem sind abstürtze und ruckler sind nur Bullshit den du in die Welt setzt. Hast nicht mal ne aktuelle ATi in den Fingern gehabt aber weißt darüber ja besser bescheid als die ATI besitzer.

Und nochmal ich hatte eine Nvidia und hatte mit Physx Spielabstürze bei ATi alles Paletti.

Edit: achso das mit den 600€ kam von dir.

Phys-X ist in meinen Augen ein ziemlicher Marketing-Gag.

genau so sehe ich das auch.
 
Hallo zusammen,

@ Chilldown

Sorry, eine Frage, ist dein Beitrag auf mich gemünzt? Wenn ja, wäre es schön wenn du deine Silben etwas verdeutlichen könntest, ich stehe da nämlich etwas momentan auf dem Schlauch. Nicht böse gemeint.

EDIT: Sorry, ich habe deine letzte Bemerkung übersehen, jetzt ist alles klar, Tschuldige nochmal.

So long....
 
Zuletzt bearbeitet:
selektiv schrieb:
... Bullshit ....

So nen geistigen Duennschiss liest man wirklich selten. Da kann man nur hoffen das bald die Putzkolonne eintrifft ...
 
So ich habe mir extra die Mühe gemacht den Thread durchzulesen bevor ich poste, die Diskussion ist stark abgeschweift aber ich gebe noch meinen Senf dazu.

@ "Fermi" Die kommt zu spät, ob die Leistung überzeugen kann ist sag ich mal noch offen aber deutet darauf hin das es nicht wirklich eine Revolution wird. Auch wenn dem so wäre würde ich wohl aufgrund der Vorgeschichte noch eine Weile auf ein B oder C Stepping warten, da können die Benchmarks mit den selektierten Karten bei verschiedenen Redaktionen noch so gut sein, solange dies nur auf die selektierten zutrifft bringt es mir als Endnutzer nichts.

@ "PhysX"

Ja zum Glück bin ich Besitzer einer "leistungsfähigen" PhysX Karte. So muss ich nicht eine extra Grafikkarte einbauen ;). Aber wenn ich ehrlich bin dann ist PhysX so was von overrated, gibt nur ein paar Spiele die ohne kastriert werden (obwohl sie auch ohne PhysX-Unterstützung laufen würden, wenn auch ein bisschen längsämer) und die sind auch keine Killer Apps die mich überzeugen würden statt ATI Nvidia zu wählen.

@ ATI vs. Nvidia

Ja immer das gleiche rumgelabere dies ist besser als jenes etc. Ich hatte schon Grafikkarten von ATI und Nvidia wobei bei beiden immer etwas nicht gut lief. Da muss jeder seine eigenen Erfahrungen machen. Pauschal zu sagen das alle mit ATI Treiberprobleme haben und alle anderen so gut unterstützt werden von Nvidia ist einfach falsch.
 
Hardware_Hoshi schrieb:
Ersteinmal bin ich garnichts schuldig :D Bei zu viel editieren passieren Fehler und ich stehe zu meinen Fehler. Der Sinn wurde evtl. verfälscht, aber man weiß was ich gemeint habe, deshalb editiere ich da nicht mehr drin herum.

Hardware_Hoshi schrieb:
Vergleiche mal:
Die letzte Generation G80 hatte 681 Millionen Transistoren bei ~90nm Fläche. Alles danach war nur ein modifizierter Shrink, aber nichts neues. Fermi hat 3 Milliarden (!) Transistoren bei einer Fläche von ~40nm. Das bedeutet sie bekommen ein vielfaches der Transistoren auf weniger als der Hälfte der alten Fläche unter.
Das ist nicht nur die Fertigungstechnologie, sondern auch eine gute Ingenieursleistung.

Ich weiß nicht, was du gemeint hast. Ich sehe nur, dass du wild mit Zahlen um dich wirfst, die keinen Sinn erkennen lassen. (Ist nicht böse gemeint, passiert jedem, jedoch wäre ein Edit mit der Markierung dieser Textzeilen als Schmarrn angebracht. :D )

Aber spinnen wir die Rechnung mal weiter:

G80:
681 Mio Transistoren
90nm Gatelänge
484 mm²

Fermi:
3000 Mio Transistoren Faktor: 4,4
40nm Gatelänge Faktor: 2,25; auf Fläche bezogen: 2,25²= 5,1
530mm² (geschätzt) Faktor: 1,1

Im Idealfall sollte die Transistorenanzahl mit dem Faktor 1,1 x 5,1 = 5,61 gesteigert werden können. Da stehen real 4,4 gegenüber.
Ganz gut.

R600:
700 Mio Transistoren
80nm Gatelänge
420 mm²

Cypress:
2154 Mio Transistoren Faktor: 3,1
40nm Gatelänge Faktor: 2; auf Fläche bezogen: 2²=4
334mm² Faktor: 0,8

Idealfall 4 x 0,8 = 3,2, real 3,1
Sehr gut, allerdings mit dem Vorteil, keine "neue Architektur" zu bieten, was es einfacher machen sollte, viele Transistoren auf engen Raum zu packen.


Gruß
Raubwanze
 
Zuletzt bearbeitet:
selektiv schrieb:
Ich weiss das jeder von euch die effekte tief im inneren gut findet !!!

Purer NEID, hättet ihr ATI-fanboys in den optionsmenü PHYSX_GPU ON/OFF zur wahl, würde bei jedem einzelnen die Option auf ON stehen, aber da die ATi´s von diesen effekten nur träumen können ist es pöse bzw. schlecht, nicht wahr ?

Ja, ja das beruhigt die psyche ungemein.

Würden wir so derbe auf Physx abfahren würden wir entweder unsere momentan schnellste Grafikkarte auf dem Markt gegen eine veraltete Nvidia tauschen oder für knapp 60€ ne billige 9600GT als reinen Physx-Beschleuniger dazukaufen.

Aber ich geb die 60€ lieber für Spiele aus die eine ausgefeilte Physikengine auf jeder Plattform bieten ;)
 
Hallo zusammen,

@ Selektiv

Also ich Frage mich wirklich, wie du darauf kommst, daß ATI nichts für den Kunden tut! Du hast da ein ziemlich falsches Kundenfreundlichkeitsverständnis!

Denn bei ATI kann jeder, absolut jeder, egal ob ATI oder NVIDIA Karte, das entsprechende Spiel Nutzen. Das ist bei Nvidia mit ihrer expliziten Phys-X bzw. CUDA Implementierung definitiv nicht der Fall! Insofern ist Nvidia diejenige Firma, die sich hier Kundenfeindlich verhält!

ATI unterstützt Phys X Effekte durch offene Schnittstellen, da kann Nvidia sich eine dicke Scheibe davon abschneiden! Cuda wird von Nvidia nämlich absichtlich nicht als Open Source z. B. freigegeben, wo ist da die Kundenfreundlichkeit? Vielleicht hat Nvidia ja auch nur Angst, daß ansonsten ein vergleichbarer Performancevergleich mit ATI zustände käme! Grundsätzlich ist Phys X, also CUDA nämlich auch auf den ATI-Karten möglich, Nvidia gibt es nur nicht Frei.

Solches Fangelabere wie deines habe ich in dieser Art wirklich mehr als Selten hier zur Kenntnis nehmen müssen. Ohne jede Objektivität. Ansonsten wäre es vielleicht förderlich, wenn du deinen Schreibstil mal etwas auf Vordermann bringen würdest, ohne dir nahe Treten zu Wollen!

Ansonsten empfinde ich deine Ausdrucksweise unter aller Kanone! Solche Typen wie du, welche Menschen regelrecht Persönlich beleidigen, sind eine Schande für das ganze CB-Forum, das ist meine eigene Persönliche Meinung.

So long....
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Zurück
Oben