News Offiziell: „Fermi“ a.k.a. GT300

Status
Für weitere Antworten geschlossen.
nabend,

nvidia arbeitet doch bestimmt mit den strom konzernen zusammen,das teil zieht mit sicherheit richtig was aus der steckdose von green it kann hier aber nicht die redesein,

dennoch ich bin immer schon ein fan von nvidia gewesen und bleibe es auch weiterhin denke sowieso daran auf den i5 oder i7 umzusteigen dann auch gleich die neue 300er oder auch gleich 2 habe jetzt noch quad sli aber ich denke bei dem gierrät reichen zwei.
schönes teil bin gespannt was es im mark schmeißt da werden mal so richtig die pixel auf touren gebracht.

und für gamer zählte eigentlich noch nie das sparen sei es am geldbeutel oder an energie.

und im moment reicht mein system noch für die kommenden games alle mal.

wer die groß und klein schreibung vermißt,ich vermisse sie auch.:evillol:
 
FortissimoIV schrieb:
Genaugenommen hatte R200 schon Tesselation, damals nannte sich das ganze dann TruForm. Es wurde jedoch nie ein Nutzen aus dieser Fähigkeit gezogen.

und es werden noch jahre vergehen bis dies genutzt wird. bzw. wir die ergebnisse sehn werden. daher ist diese entwicliung in den gamerkarten für den endkundenmarkt total überflüssig. weil das rausgschmissenes geld ist. man würde genug einsparen können wenn man diese technik nicht in den chips verbauen würde, die entwicklung kann ja weitergehen aber waas soll man mit dem ding wenn es nicht genutzt werden kann.
 
Nicht nur in Stalker - CoP, sondern auch in Dirt 2, AvP und Unigine.
 
Lieber Herr da oben lass die NV minimum 30% schneller als die 5870er, nicht länger als 28cm sein und nicht mehr kosten als 400-450 Euro...dann wechsle ich wieder zu einer Single GPU Lösung.
 
s.0.s schrieb:
Was glaubt ihr was das Teil ca. kosten wird? 600 EUR oder noch mehr?

Teile über 200.- interessieren mich nicht. Es kann daher auch 1000 kosten, wen interessierts?
 
Evader schrieb:
Charlie bezieht lt. Ail von 3DC von AMD Kohle, damit wäre er definitiv nicht neutral und somit sehen seine ganzen nV Artikel minus Bumpgate "etwas" anders aus in meinen Augen.

Quelle wär mal nicht schlecht? Ansonsten kann sowas ja jeder (besonders NVIDIA Fanboys) erzählen...

Zu dem Thema Charlie würde bezahlt, hier mal ein Statement von Copper (bei Semi-Accurate zuständig als Mod und "Geschäftsführer":

"I ride him [Charlie] pretty hard about being sure that he's got the facts right and could back them up if necessary because, as I said in another thread, I'm the business side of things. I get to deal with the shit when it hits the fan."

Zur AMD-Werbung (falls dieser Ail das gemeint hat)

"Yeah, just for the record, Charlie doesn't deal with any of the money stuff for S|A, management, business, or ads. All of that is my area. Which is why I don't write or really participate in discussions."

"And yes, AMD ads did go up on the site first. They do their ad placement in-house which meant it was easier for me to bend someone's ear there than say... Intel that outsources their ad placement to a large PR firm, which is much harder for a small start-up like us to get in the door."

Frei übersetzt: Charlie hat mit dem Geld-Zeugs bei S/A nix zu tun, AMD hat bei uns als erstes Werbung geschaltet, weil die ihren Werbekram im Haus verwalten, im Gegensatz z.B. zu INTEL, die das an eine PR-Firma vergibt. Das macht es leichter für uns, bei AMD einen Fuss in die Tür zu bekommen, werbetechnisch gesehen.

Medano schrieb:
Nicht alles was Charlie betreibt ist auch reine Aufklärungsarbeit. Denn wenn er wirklich von AMD bezahlt wird, hat es für mich ganz klar den Anschein, dass er Rufmord betreibt.[...]
Wenn also einfach mal von ihm Behauptungen aufgestellt sind, die aber nur zur Hälfte, oder komplett nicht richtig sind, dann kann das für ein Unternhemn(im diesem Fall Nvidia) schlimme Folgen haben.[...]
Und bitte erzähl mir jetzt nicht, sofern ATI das Geld dafür hätte, dass sie nicht auch versuchen würden den Markt zu ihren Gunsten zu beeinflussen.

Wie gesagt, sowas sollte man auch erstmal belegen, ansonsten-->Bullshit. Was sollte Charlie davon haben, nur NVIDIA schlecht zu schreiben? Auf kurze Zeit vielleicht Webpage-hits, auf lange Zeit gar nichts. Denn wenn er kontinuierlich Bullshit schreiben würde, wäre er schon längst weg vom Fenster.

Zum Zweiten: Der Witz ist ja: Er behält leider erschreckend oft Recht. Und das der GT300 erst nächstes Jahr kommen wird, schreibt er ja nun schon seit Ewigkeiten. Und das einfach aufgrund gesunden Menschenverstandes und entgegen dem, was MVIDIA nachweislich verlauten lässt. (siehe oben)

Zum dritten: Ja, das glaube ich. Zumindest bis diese Firma mir das Gegenteil beweist. Nennt sich Firmenpolitik. Man kann es machen wie Siemens. Man muss aber nicht. Unter andererm ein Grund dafür, das ich Produkte von AMD jede Sekunde einem Produkt von NVIDIA oder INTEL vorziehen würde. Beide Firmen haben in der Vergangenheit oft genug bewiesen, dass sie sich den MArkt gern bissl zurecht biegen. Wer das sehenden Auges unterstützt, soll das tun. Ich nicht.

Lübke schrieb:
ok, das erklärt einiges^^ wenn charly was über nvidia schreibt, ist das der beweis, dass es zu 90% frei erfunden ist. woher sollte ati auch vor mikrosoft wissen, was mikrosoft sich mal ausdenken wird?^^

sry KAOZNAKE, aber du solltest eigentlich wissen, welchen wert charlys aussagen in bezug auf nvidia haben... falls nicht, frag volker mal ;)

??? Was soll mir Volker dazu sagen können? Kennt er ihn persönlich oder was? Hab schon mehrfach geschrieben, dass Charlie leider erschreckend oft Recht behält, was NVIDIA betrifft und erfunden ist da schon gar nichts. Glaub es oder lass es. Ohne zumindest einen Teil seiner Artikel gelesen UND auch verstanden zu haben, kannst du dir eh kein Urteil bilden. So macht man das nämlich ;) Leseproben gibts weiter oben....

Zu dem MS-Teil: So wie ich das verstanden habe, arbeitet MS mit beiden Herstellern zusammen, um DX weiter zu entwickeln. So gesehen sind immer alle auf dem "gleichen" Stand. So wies für mich aussieht, konnte ATI MS bei DX10 anfangs davon überzeugen, dass man Tesselation zur Pflicht erklärt. NVIDIA hingegen konnte ODER wollte das nicht und konnte MS anscheinend (wie auch immer sie das geschafft haben) davon überzeugen, den Teil von DX10 wieder zu streichen. Vermutlich wusste man damals schon, das man "irgendwas" mit CUDA in der Richtung macht.

Wie auch immer, du kannst mir glauben, das da jede Menge Action hinter den Kulissen abgeht. Da gehts um jede Menge Geld, da wird mit harten Bandagen gekämpft. Jedenfalls seitens NVIDIA. Die sind nicht umsonst für ihre Großmäuligkeit bekannt, siehe NVIDIA vs INTEL. Das ist sicher nur ein sehr kleiner Teil von dem, was nie an die Öffentlichkeit gelangt.

Denahar schrieb:
CB zum Beispiel?

Im Ernst, dir wird wohl schon selber klar genug sein, welche Beziehung Charlie zu Amd hat und welchen Intentionen er verfolgt. Zudem ist seine "journalistische" Arbeit weder neutral noch objektiv. Mit solch einer Vergangenheit kann man einfach nicht mehr ernst genommen werden.

Ich weiß nicht was du willst? Du hast eine "extrem vertrauenswürdige" Quelle (bedenke, das Fudo eher als grüner gilt, ich glaub das aber nicht) gebracht, in der sich (wieder mal :D) das zu bestätigen scheint, was Charlie schon seit einer Weile erzählt (mit belast- und überprüfbaren Zahlen zudem) und du kommst mir mit Glaubwürdigkeit?

Und was ich noch geschrieben habe: "Dazu ein mehr als mäßiger 40nm Prozess, neue Architektur, DX11 Kompatibilität und neuer GDDR5?"

sind ja nunmal Fakten und mit Sicherheit ein Risikofaktor, die NVIDIA alle ein Bein stellen *können*.

CB ist leider eine "Quelle" die immer erst hinterher darüber berichtet, was am Ende rauskommt und über vieles gar nicht. Bumpgate wurde z.B. eher stiefmütterlich behandelt. Was ja völlig in Ordnung ist. Charlie hingegen arbeitet in einem Bereich, in dem die Firmen teilweise selber nicht wissen, was rauskommt und in letzter Sekunde Entscheidungen getroffen werden bzw. Produkte gestoppt. Du glaubst doch z.B. nicht ernsthaft, das NVIDIA den ersten 0,93TFLOP GPU entwickeln wollte?-->GTX280. Ich sag dir was geplant war: 1TFLOP :lol:

Wie gesagt: Bessere Hintergrundberichterstattung wirst du nirgendwo finden. Nur jede Menge Websites, die von einander abschreiben oder Sachen erfinden. Ich sag nur Theo Valich von Bright Side of News (BSN) und seine Tapeout-Story zum GT300. Hätte er Recht gehabt, müsste "Dear Leader" keinen Fake-Müll in der Luft schwenken. Charlie hat die ganze Zeit gesagt, das das BS war.
Oder ATI-Forum, die einfach mal die Shadern-Zahlen für Cypress erfunden haben und Hardwareinfos habens einfach abgeschrieben.

Charlies journalistische Arbeit ist in jedem Fall neutral und objektiv, brauchst dir bloß seine Berichte über INTEL anschauen.

In seinem Forum treiben sich im Übrigen jede Menge Leute mit Ahnung rum, zum Beispiel "ephud", der dir alle Fragen zur Fertigungstechnik von Mikrochips beantworten kann. Scheint ein INTEL-Mitarbeiter zu sein, denn er lässt kein gutes Haar an AMD. Könnte dein Bruder im Geiste sein...

;)
 
@Denahar

Nvidia hat lauffähige Femis und präsentieren dann dieses lächerliche Fake Modell???

Sorry, das glaubst du doch selbst nicht.
 
Zuletzt bearbeitet:
selam13 schrieb:
wer die groß und klein schreibung vermißt,ich vermisse sie auch.:evillol:

Mehr als das vermisse ich Satzstellung und Satzzeichen :freak:

Und hört auf euch in die Haare zu kriegen ^^
 
Das Video hier hies vor kurzem g 300 physx tech demo.
http://www.youtube.com/watch?v=iyg9HgiD8X0

Jetzt nicht mehr wahr wohl auch gefaked das das auf dem Fermi lief.
Das wird immer lächerlicher was da abgezogen wird charlie war wohl wieder einer der wenigen die wussten was da in etwa los ist mit dem stand des G300. Ist schon beindruckend wie oft der richtig liegt mit seinen aussagen.
 
Zuletzt bearbeitet:
ist offenbar definitiv gefaked.

Das Video wurde von PCGH hochgeladen und die schreiben (rechts im Kasten neben dem Video):

New physx demo as seen at GPU Technology Conference, unfortunately not running on Nvidia Fermi but on GT200
 
SH501 schrieb:
Nvidia hat lauffähige Femis und präsentieren dann dieses lächerliche Fake Modell???

Noch einmal...

Bei dieser Art von Präsentation werden grundsätzlich Dummys verwendet !!
Was meint ihr wohl was so ein Prototyp kostet ?
50.000 - 100.000 Euro wenn nicht sogar mehr !

So etwas kann man nicht einfach in die blanke Hand nehmen und herumschleudern.
Was ist wenn das teure Stück durch Unachtsamkeit beschädigt wird oder durch statische Entladung der Hände oder Kleidung zerstört wird ?

Dann muss wieder ein neuer Prototyp in Auftrag gegeben werden was:
1. Wieder eine menge Geld kostet.
2. Ist so ein Prototyp nicht von Heute auf Morgen produziert. Das dauert ein paar Wochen wo NV dann keine Präsentationen mehr durchführen kann.

Nvidia hat einfach nicht damit gerechnet das die ATI-Fanboys sich gleich auf den Dummy stürzen und ihn als Beweis für die allgemein gängigen Verschwörungstheorien, über Nvidia, missbrauchen.
Diese Präsentation sollte eigentlich einen ganz anderen Kundenkreis erreichen welcher sich nicht gleich über einen Dummy aufregt da sie selber sehr genau wissen wie so einen Präsentation abläuft.

So jetzt aber mal wieder zurück zur Karte.
Ich finde das Design wirklich klasse.
Das Chrom ist absolut edel und wirkt professionell.
Wenn so die Desktops-Karten aussehen dann gute Nacht mein lieber Scholli !

Und ja ich habe einen gläsernen PC Daheim. :D

Desweiteren gibt es ja Unmengen an Vorurteilen bezüglich des Stromverbrauchs.
Wenn man sich allerdings etwas mit Grafikkarten der letzten Generation befasst hat, dann sollte man eigentlich erkennen, dass Nvidia das beste Strommanagement besitzt. ATI hat zwar jetzt dank dem 40nm Prozesses und den überarbeiteten Karten aufgeholt. Was aber, wenn man ehrlich ist, eigentlich zum Pflichtteil einer neuen Generation gehören sollte.
Nun ist Nvidia am Drücker und ich bezweifle ganz stark das sie plötzlich ihr hervorragendes Strommanagement verlieren.
 
Zuletzt bearbeitet:
@Affenkopp: was verstehst du unter genügend? 5% oder weniger?

Tja, wie's ausschaut ist sogar die Techdemo (Video) nur ein Fake. Wie verarscht muss man sich da bloß als Journalist bei so einer Vorführung wohl vorkommen bzw. danach... ouch
Mittlerweile müsste ja allen klar sein was mit dieser Aktion seitens Nvidia bezweckt werden sollte: ATI Interessenten vom Kauf abzuhalten . Die Gerüchte über die grottenschlechte Chipausbeute beim G300 müssen dann wohl wahr sein.
Aber so einen billigen Fake dann dem Fachpublikum vorzuführen ist schon sehr dreist. Die hätten sich mit dem Design dieser Scheinkarte mehr Mühe geben sollen, einfach nur einen Plastikdeckel draufkleben und das Ende absägen, da wahr wohl ein Schreiner mit der Stichsäge am Werk (passend dazu die verwendeten Holzschrauben).
P.S. Das Publikum hat sich auch blamiert, sind die wirklich vom Fach oder nur ein Fan-Club?
 
Zuletzt bearbeitet:
@KAOZNAKE:
Erst einmal danke und Glückwunsch für den recht sachlichen Beitrag (den einen Seitenhieb überlese ich mal). ;)
Dem gesagten ist fast nichts hinzuzufügen. Ich habe ja nie behauptet, dass Charlie nicht wüsste was los ist. Die Intentionen sind mir einfach (persönlich) nicht gar klar/geheuer. Im Übrigen mag ich nVidia im groben sowieso nicht. Ich wollte lediglich mal (möglicherweise falsche) Infos zum Thema beitragen. Das habe ich auch so gekennzeichnet und halte persönlich auch nicht sonderlich viel davon.
Ich denke zum Beispiel nicht, dass wir am Dienstag einen "echten" Fermi-Launch sehen werden. Das wäre ein Wunder...

SH501 schrieb:
Nvidia hat lauffähige Femis und präsentieren dann dieses lächerliche Fake Modell???

Sorry, das glaubst du doch selbst nicht.

Der Chip heißt "Fermi", wie der Physiker. Und doch, ich glaube das wohl bzw. kann es mir gut vorstellen. Es wurde ja oft genug darüber spekuliert, dass es erst zwei Fermi-GPUs überhaupt gibt, so dass einer defekt sein kann und der andere zur Prototypen-Karte aufgebaut wurde. Nur ist dieser Prototyp nicht wirklich "ansehlich" und vorzeigbar (ich kenne mich hier aus), wegen all den Testbrücken, losen Verbindungskabel usw.
Daher kann es legitim sein, ein Muster ohne Funktionalität anstelle des echten Prototypens vorzuzeigen (was ja dann auch der kommenden Realität entspricht). Es wäre trotzdem schön, wenn nVidia nun noch den "echten" Prototypen zeigen würden um die letzten Zweifel auszuräumen.
 
In nem halben jahr kann ja dann ATI den RV900 präsentieren mit ner zersägten Atrappe und dann die RV900 DX11 tesselations Demo auf nem RV800 laufen lassen so ähnlich wie NV das gemacht hat mit dem Fermi. Das müsste wohl dann drinn sein nach dem stand des RV900 :lol:.

New physx demo as seen at GPU Technology Conference, unfortunately not running on Nvidia Fermi but on GT200 :D:D:D
 
Zuletzt bearbeitet:
Motkachler schrieb:
"New physx demo as seen at GPU Technology Conference, unfortunately not running on Nvidia Fermi but on GT200 :D:D:D"

Na ja, da waren wohl beide Videos wähernd der Vorführung identisch, beides mal G200 in Aktion: Rechts im 10fachen Zeitraffer, links in Realtime abgespielt. Aber eins muss man denen lassen: Währen sie damit durchgekommen, hätten sie sich über das Nerd-Fachpublikum hinter den Kulissen einen abgelacht. Vielleicht sind ja Wetten abgeschlossen worden, was man diesen Nerds alles unterjubeln kann :evillol: Hauptsache die Verpackung sieht goil aus :lol: (wie im wirklichen Leben, die inneren Werte spielen immer weniger eine Rolle)

P.S. Mir ist in den Kommentaren aufgefallen, das silberne Aufkleber auf schwarzen Grund ganz besonders "in" sind. Das sollten sich die Reseller mal genauer anschauen.
 
Zuletzt bearbeitet:
Kurze Frage,wie zitiert man hier aktuell?

Muss man das per Hand einfügen,oder bin ich zu doof "Beitrag zum zitieren" zu drücken.

Ansonsten
@Pickebuh,
es ist scheissegal wie teuer der Prototyp ist. Entweder man präsentiert eine richtige,wegen mir auch in einer gepolsterten Sicherheitsbox, Karte, ode rman lässt es bleiben.

Einen Dummy oder Gt280 im 300er Lock zu präsentieren ist einfach nur lächerlich.

Hat man wirklich geglaubt damit durchzukommen?? Aktuell hätte man doch nicht lauter rausschreinen können,das man noch viele Monate braucht um Karten auf den Markt bringen zu können, aber bitte,bitte keiner vorher ATI Karten kaufen soll.

Für mich hat diese NVIDIA Präsentation gezeigt, das auf den 300er Chip warten eine denkbar schlechte Entscheidung ist.(es sei denn man wollte eh erst in 6 Monaten eine neue Grafikkarte kaufen)
 
KAOZNAKE schrieb:
Äh :lol: die G210 kann ABSOLUT GAR NICHTS besser als die 4350 und du kommst damit, dass sie bei .1 "mehr zulegt"?
Lies die Texte im Zusammenhang oder lass es. Hat gar keiner behauptet die G210 könne was besser.

@SH501
Du klicks bei dem Beitrag den du zitieren willst auf den Zitieren-Button (rechts neben dem Antworten Button), können auch mehrere Beiträge sein, und klickst dann auf den Antwort-Button.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben