News Offiziell: „Fermi“ a.k.a. GT300

Status
Für weitere Antworten geschlossen.
Natürlich ist für nVidia Eyefinity kein Problem°° aber leider nur auf Quadro Karten. Da haben die GTXen keine Power für? Noch ein Fail³?.

http://www.hartware.de/news_47716.html

nVidia scheint jedes Mittel recht zu sein um den Gegner klein zu machen. Die Benachteiligung bei den Games (Batman,Shift), DX11 und Power braucht keiner, und Eyefinity ist jetzt auch kein Problem mehr. Das sind alles nur Störfeuer um ATi das Geschäft mies zu machen. Vielleicht bringen sie ja doch Zeitplanmässig was, aber bei den ganzen Verzweiflungstaten sieht das eher nach was anderem aus.
 
@bensen
Sieht so aus, als ob man Javascript brauch zum zitieren in dem Forum hier. Auf den Dienst PCs gibt es sowas nicht.

Wie gesagt,zitieren drücken bringt einfach nur ein weisses,leeres Feld.
 
Quelle wär mal nicht schlecht? Ansonsten kann sowas ja jeder (besonders NVIDIA Fanboys) erzählen...

Ich finds mal nebenbei gesagt amüsant wie schnell du mit dem Wort Fanboy um dich wirfst, vor allem dann, wenns gegen Charlie geht. Könnte es sein, das vor allem bei deiner späteren Aussage das du AMD ohnehin jederzeit Intel und nV vorziehen würdest, er einfach nur die Dinge schreibt, die dir genau in deinein Präferenz-Kram passen, so das du ihm nicht nur glaubst, sondern auch glauben willst?
Wie gesagt kein Vorwurf, nur die Frage drängt sich auf. ;)

Zu dem Thema Charlie würde bezahlt, hier mal ein Statement von Copper (bei Semi-Accurate zuständig als Mod und "Geschäftsführer":

"I ride him [Charlie] pretty hard about being sure that he's got the facts right and could back them up if necessary because, as I said in another thread, I'm the business side of things. I get to deal with the shit when it hits the fan."

Zur AMD-Werbung (falls dieser Ail das gemeint hat)

"Yeah, just for the record, Charlie doesn't deal with any of the money stuff for S|A, management, business, or ads. All of that is my area. Which is why I don't write or really participate in discussions."

Nein, das hat er in beiden Fällen nicht gemeint und das sagt auch in beiden Fällen nichts über das aus, was ich ursprünglich aufgeführt habe.
Es wird lediglich gesagt das C. nicht in irgendwelchen Finanzgeschichten was die Website und Werbegeschichten angeht verwickelt ist.
Was er als "Journalist" privat auf sein Konto geballert bekommt hat damit überhaupt nichts zu tun.

Und die Nummer mit dem "got the facts right" ist genauso amüsant, ich nehme mal an das er zu nV fährt und die Chips nachzählt bevor Charlie seine "2%" Artikel posten darf?
Bei allem Respekt, wie zur Hölle soll man sowas prüfen können?

Und wo wir gerade beim Thema Charlie sind, geb uns doch mal eine vertrauenswürdige Quelle die beweist, das Charlie (und nicht die Website/Werbebanner Nummer) keine Kohle von AMD für seine Berichterstattung erhält. Falls du das nicht kannst ist die "Charlie ist in jedem Fall Objektiv" Nummer genauso Spekulativ wie mein Gegenargument. ;)
 
Zuletzt bearbeitet:
@Dural
Bist Du blind oder siehst Du dei Frames durch die NV Brille nicht die der tolle NV 40nm DX10.1 chip da hinzaubert.
Da langt ne betagte 4350 55nm um dem die rücklichter zu zeigen.
Menist Du das hat sich NV von der ersten DX10.1 40nm karte so erwartet. :evillol:
 
Zuletzt bearbeitet:
lol... der GT218 ist eine low low low cost GPU, zudem ist die GPU so extrem klein wie (fast?) keine andere vor ihr... die Leistung ist bei einem solchen Produkt völlig egal, hauptsache man kann mit DX10.1 werben der rest ist egal!

Die NV Karte bricht bei DX10.1 sogar weniger ein als die ATI, das beweist doch genau das gegenteil deiner Aussage.... :rolleyes:

Aber ich habs doch schon immer gewusst, die 4850 "kackt" ja komplet ab gegen die GTX 285, ATI kann einfach keine Grafikkarten bauen... lol!!!!
 
was labberst du??
wo bricht die nv karte weiger ein
klar ist die g218 eine lowlow cst gpu aber wilst du mir das gegenteil von der hd 4350 erzählen?
man muss auchma zu seinen fehlern stehen
 
Hast du das Fazit komplett gelesen?

Somit bleibt die Geforce G210 eine Karte, die in erster Linie Nvidia glücklich machen dürfte. Bei einer Chipgröße von unter 60 mm² sind vermutlich sehr günstige Preise und hohe Stückzahlen möglich - zumindest bis DirectX 11 von den OEMs zur Pflicht erhoben wird, was schon im Herbst der Fall sein könnte.

Im OEM Markt gehts um nix anderes, Balken spielen da fast überhaupt keine Rolle.
 
nvidia glücklich machen ist was anderes als games glücklich zu machen.
ich sag nicht, dass die karte schlecht ist, sondern nur das die hd 4350 trotz theoretischer schlechterer leistung besser ist
 
Evader schrieb:
...
Und die Engines:
Alle Blizzard Titel nutzen eigene Engines, dito bei Valve, die FEAR Reihe verwendet ebenfalls eigene Engines.
...
Öhm nur mal so nebenbei: Bereits in meinem ersten beitrag zu dieser Engine-Sache habe ich Lithtech erwähnt, dann gabs irgendwann eine Antwort mit FEAR und ich weise darauf hin, dass FEAR=Lithtech ist und mehrere Seiten später kommt nochmal eine solche Belehrung mit FEAR? Ich habe nie behauptet, es wären nur Id und Unreal interessant, sondern eben Unreal, Id, Lithtech, ich glaube Crytek oder sowas und dann steht dahinter und einige andere - Als Half-Life 2 rauskam ging Valve groß auf Werbtournee, wie geil die Steam-Engine geworden sei, weil man die von denen für seine eigenen Spiele lizenzieren sollte. Genau wie bei Unreal wurden bei Steam, Lithtech und einigen anderen Engines, die eurer Meinung ja immer nur ausschießich "Eigenkreationen" sind, damit geworben, dass die sich für alle Genres eignen - diese Engines wurden eben auch nicht nur für die eigene Spielserie entwickelt, sondern immer mit der Hoffnung diese Engine an andere Game-Studios zu lizenzieren. Die haben auch das Geld "more effort" zu leisten. Und was das ganze nich unterstützt: Oblivion nutzt Gamebryo in Direct3D, nutzt aber ein selbstentworfenes HDRRendering, weil die DX-Spec für HDRR während Oblivion noch entwickelt wurde, noch nicht fertig war. Selbst die Leute, die eine fremde Engine lizenzieren, haben also ihre Änderungen nicht nur anhand der vorgefertigten Muster des DirectX-SDK erstellt. Haben die Angst vor der Zukunft? (mal abgesehen davon, dass sie beim nächsten TES hoffentlich an Id Tech rumbasteln dürfen)

Das war ja früher nicht anders, Id Software hat zwar geniale Engines geschrieben, aber die erste Darstellung von flüssigen Wasserplatschern in Heretic (in der "Doom Engine") stammte von Raven Software. Ich glaube nicht, dass am Ende der Entwicklung zu Softwaregrafik auf GPGPU weniger 3D-Programmierer bezahlt würden - vielleicht werdens insgesamt sogar mehr sein. (Spieleindustrie ist immernoch ein wachsender Markt)
 
Zuletzt bearbeitet:
Ist sie ja auch, nur Gamer macht man mit sowas eh nicht Glücklich. Und das ist auch gar nicht das Ziel dieser Karte. Oder ist ein Gamer etwa mit 20 Fps ohne AA und AF zufrieden?! ;)
Die verschwinden in irgendwelchen OEM Blödmarkt PCs, dort sollen sie auch hin.

@MountWalker:

Als Half-Life 2 rauskam ging Valve groß auf Werbtournee, wie geil die Steam-Engine geworden sei, weil man die von denen für seine eigenen Spiele lizenzieren sollte

Natürlich, das man wenn der ganze Braten im Ofen ist auch den anderen Studios das ganze schmackhaft machen will, ist wie du schon sagtest völlig normal, war aber nicht der Grund warum Source so entwickelt wurde wie sie heute ist.
Die Source Engine wurde in erster Linie entwickelt, damit man die für HL2 geplanten Inhalte (Stichwort Physik und Gesichtsanimationen) so umsetzen konnte, man hat erst an seine eigenen Ziele gedacht, dann an den Markt.

Oblivion nutzt Gamebryo in Direct3D, nutzt aber ein selbstentworfenes HDRRendering, weil die DX-Spec für HDRR während Oblivion noch entwickelt wurde, noch nicht fertig war.

War bei der Source Engine nicht anders, Lost Coast war ja ein Testballon der die eigene HDRR Implementation unter die Leute brachte und mit allen DirectX 9 Karten funktionierte, was in dieser Form etwas ganz neues war.
 
Zuletzt bearbeitet:
Der GT218 gibt es bis jetzt ja nicht mal als Retail Version... und wird es wohl auch nie geben... aber die NV GPUs "kacken" bei DX10.1 ab, ist ja bewisse!!! sie hat schlisslich GANZE 3 FPS weniger als die 4350 in EINEM getestetem DX10.1 Game :D aber das die Karte auch unter DX9 und DX10 Games langsamer ist wird nicht erwähnt, sie "kackt" bei DX10.1 ja ab!

lol...........
 
Zuletzt bearbeitet:
SH501 schrieb:
Kurze Frage,wie zitiert man hier aktuell?

Muss man das per Hand einfügen,oder bin ich zu doof "Beitrag zum zitieren" zu drücken.

....

Schau:
 

Anhänge

  • zitieren.JPG
    zitieren.JPG
    63,1 KB · Aufrufe: 446
Motkachler schrieb:
Das Video hier hies vor kurzem g 300 physx tech demo.
http://www.youtube.com/watch?v=iyg9HgiD8X0

Jetzt nicht mehr wahr wohl auch gefaked das das auf dem Fermi lief.
Das wird immer lächerlicher was da abgezogen wird charlie war wohl wieder einer der wenigen die wussten was da in etwa los ist mit dem stand des G300. Ist schon beindruckend wie oft der richtig liegt mit seinen aussagen.

NV hat auch nix anderes behauptet.
"New physx demo as seen at GPU Technology Conference, unfortunately not running on Nvidia Fermi but on GT200"

Hier (Dort) wurde keine G300 Physx Demo gezeigt. (bezieht sich auf das Video ^^)

GT200=Tesla, G200=Consumer/Quadro
GT300=Nachfolger Tesla, G300=Consumer/Quadro
 
Zuletzt bearbeitet:
Mag sein dass NVidia lauffähige Fermis hat, aber deswegen brauchen sie ja nich alle Leute anlügen und ihre Präsi so dreist faken

Greetz,
GHad
 
Pickebuh schrieb:
Bei dieser Art von Präsentation werden grundsätzlich Dummys verwendet !!
Was meint ihr wohl was so ein Prototyp kostet ?

So ein Quatsch. Nvidia hat das Tape out angeblich hinter sich, da müssten mehrere Fermi schon lange da sein.
Die Produktion dürfte schon ngelaufen sein, da kostet kein Sample so viel Kohle, und wenn eins kaputt geht hat man noch genügend andere.
DAss die Videos/Präsentation usw.. gefaked waren beweist nur, dass sie Probleme haben und derzeit nichts gegen AMD und die HD5870 in Petto haben.
 
Zuletzt bearbeitet:
@project
Das hat PCGH die das Vido hochgeladen haben heute neben das video geschrieben weil der ganze fake aufgeflogen ist.
New physx demo as seen at GPU Technology Conference, unfortunately not running on Nvidia Fermi but on GT200"

Gestern stand da noch G300 PhysX Demo über dem Video. So wollte es NV auch dem gesammten Fachpublikum verkaufen.
NV hat ihren Schmu erst zuggegeben als es nicht mehr anders ging .
Aber man siehts ja leute für blöd verkaufen das schaffen sie immer noch. :D
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben