News Nvidia meldet gute Umsätze und Gewinne

Das Chipsatzgeschäft wird aufgegeben, das stand auch gesten Abend schon im Finanzreport, ich wundere mich dass das nicht in der News steht?

Dann hätten sie wohl lieber dich fragen sollen. Denkst du nicht, dass nV das gemacht hätte wenn es möglich und günstig gewesen wäre?

Der G200 (nicht GT) sollte wohl DX10.1 haben, die Marketingabteilung hielt es aber für Unsinn -> gecancelt.
Ist wohl einer der Gründe, warum Derek Perez seinen Hut nehmen musste.

Aber eine 460 mit wenig Stromverbrauch ist nicht in Sicht

So so, du kennst die Roadmaps und Pläne von nV? :p
Das Jahr ist noch Jung, ich würde mich sehr wundern, wenn da nichts mehr an überarbeiteten Chips kommen würde.
Und was spricht dagegen, diese dann als 460, 480, evtl. 465 und 485 zu verwenden?

Es ist nie die Rede davon, dass sie nie kommen wird, aber mapel behauptet, dass die schon Ende März kommt und wenig später ausgeliefert wird...

Also was jetzt, niedriger Verbrauch nicht in Sicht, ergo keine Dual-Chip Karte oder dann doch irgendwann?
Von März gehe ich selbst auch nicht aus, aber die Schiene es wird keine geben ist genauso mumpitz wie die, das im März ein Dual-Chip Modell auf den Markt kommt, egal wer das Vertritt.
 
Zuletzt bearbeitet:
terraconz schrieb:
Auch am Erfolg der Wii sieht man den Stellenwert der Grafik atm.
Gerade deswegen weil die neue, aktive Steuerung die Grafik unwichtig erscheinen lässt.
Für Skispringen/Balancieren/Turnen/Joggen braucht man keine gute Grafik.

@ Topic Weniger verwunderlich, dass Nvidia nen haufen Gewinn macht. Geht man mal durchn Mediamarkt oder Saturn, werden doch auch fast nur Nvidiakaten verbaut.
Allerdings hier in Deggendorf gibts zumindest einen Tisch an den 10Laptops stehen, in denen nur ATI Karten ihren Platz gefunden haben.
AMD Prozessoren sucht man beim medimarkt vergebens, genauso bei Saturn vergebens, obwohl doch Intel angeblich ihre unfairen Methoden beendet hat.
 
Zuletzt bearbeitet:
DvP schrieb:
Dann hätten sie wohl lieber dich fragen sollen. Denkst du nicht, dass nV das gemacht hätte wenn es möglich und günstig gewesen wäre?

Das ist mir schon klar, das es wahrscheinlich technisch nicht ging, aber sie wussten früh genug was kommen wird, sie haben schließlich sogar einmal die Weiterentwicklung von DX aufgehalten, weil sie anscheinend schon damals wussten, das es mir ihrer Graka (muss wohl kurz vor dem G80 gewesen sein) kein Tesslation usw. hinbekommen.

Ich meinte nicht, das Nvidia JETZT was falsch gemacht hat und nen Refresh vom G200 bringen hätten müssen, denn ich glaube auch, dass sie es gemacht hätten, wenn es möglich gewesen wäre.
Das Problem zeichnete sich aber wohl schon kurz vorm G80 ab, denn sonst hätten sie nicht verhindern müssen, dass die Features von DX11 in DX10 rieinkommen.
 
Freut mich für nvidia und zeigt einfach mal wieder , dass diese Firma einiges drauf hat - mehr als so manch andere.

Hier sind viele semi-akkurate Glaubensbrüder unterwegs. Allein schon dieser sich fast selbst diqualifizierende Name: semiaccurate.:p Trick17 ist dagegen ja harmlos.:D
 
@Dvp: Ui hab ich ja noch garnicht gesehen. Naja jetzt weiss ich bescheid ;)

Jocotty: Notebook, daran hab ich garnicht gedacht :)


@Evader: Wenn der Chipsatzmarkt aufgegeben wird, betrifft das auch den ION ?
 
Kein Wunder... sagt doch Nvidia selber, daß sie 2/3 des Gewinns am Profisektor einfahren.
Da ist CUDA gefragt, DX9/10/11 ist da sowas von superwurscht!

Dirt2 liefert perfekte Grafik mit DX 9 auf Nvidia Karten.
Der Unterschied zu DX 11 ist nur mit der Lupe im Standbild zu erkennen.
Außerdem läuft Dirt2 viel genügsamer als Dirt 1.
In dem Spiel wurde einfach alles richtig gemacht.

Ich glaube schon, daß der Fermi bald mal in die Gänge kommt.
Interessant wäre halt ein Redesign unter der Fuchtel von Intel oder IBM auf 32 oder gar 22nm!
:)
 
@schaffe89:
Das mit der Wii war nur ein beispiel, schau dir Steam an und wieviel grafisch eher einfache Dinge dort zu tausenden geladen werden oder schau dir PS3/Xbox an deren Grafik ja auch schon sehr datet ist aber trotzdem stört sich keiner daran. Die Xbox360 ist wenn ich mich nicht täusche ~6 Jahre alt und wenn ich mir anschaue wie es war als die PS2 6 Jahre alt war, da haben die Spiele viel schlimmer ausgesehen als heute.
Es geht einfach nicht mehr so viel so schnell weiter in dem Bereich, für jedes Fitzelchen mehr/schönerer Grafik muß man unmengen an Ressourcen aufwenden und das wird nicht weniger werden.

@Marius:
Genau das meine ich der Unterschied atm zwischen DX10 und DX11 ist für die meisten keine rechtfertigung für eine neue Grafikkarte, anders als es früher war wo man Riesen Unterschiede auch als nicht technik versierter sofort gesehen hat (PS1 zu PS2 oder DX7 zu DX8 zu DX9).
 
CyberdyneSystem schrieb:
kommt halt auf die Ansprüche drauf an. Ich habe mich auch dazu entschlossen, nochmal eine GTX260 zu kaufen, .... ..... OC Versionen der GTX260er bekommt, liegen diese Karten auf einem Niveau der GTX275/80. Und sind somit um einiges schneller als die HD5770. Einzig die HD5850 liegt dann gleich auf mit der Oc Version, die allerdings deutlich teurer ist

Ist ja auch nicht vekehrt sich noch eine GTX260 zu kaufen. Aber ich bitte davon abzusehen in jedem Thread Lobeshymnen auf den Lieblinshersteller zu singen.
Ständig wird auf den OC-Karten herumgeritten, obwohl der Sachverhalt nun gar nichts mit dem Topic zu tun hat.
Die GTX 260 216 OC Karten liegen etwa 20% vor einer HD5770 und sind somit in etwa so schnell wie eine HD4890/GTX275. Eine GTX285 wird von keiner GTX260 OC (ab Werk) erreicht und eine HD5850 schon gar nicht.
Edit: Solange ein Spiel gut ist und Spaß macht ist die Grafik zweitrangig, manche sehen das aber anders.
Directx11 rechtfertigt derzeit meiner Meinung nach keine neue Grafikkarte. Wer aber beispielsweise von einer 9800gt aufrüstet, sollte wenigstens so schlau sein und directx11 mitnehmen.

Marius schrieb:
Dirt2 liefert perfekte Grafik mit DX 9 auf Nvidia Karten.
Der Unterschied zu DX 11 ist nur mit der Lupe im Standbild zu erkennen.

Perfekte Belichtung sieht allerdings anders aus und das erkennt man auf Anhieb.
Tesselation ist auch ein Feature mit viel Potenzial.
 
Zuletzt bearbeitet:
@Evader: Wenn der Chipsatzmarkt aufgegeben wird, betrifft das auch den ION ?

Nein, die Designteams wurden unter der GPU Abteilung zusammengefasst und arbeiten weiter. Was eingestellt wurde, sind neue Chipsätze als solches (Ohne GPU) für Intel Plattformen. ION und ION 2 und Konsorten wirds weiterhin geben.
 
Ich kann nur hoffen, dass die neuen GTX 400er Karten alles umprügeln werden, denn dann wird Nvidia auch im highend Bereich mitmischen können. Derzeit ist ATI auf dem besten Wege die Nummer 1 für Gamingsysteme zu werden, was auch noch durch die sehr gut laufenden Phenom II unterstütz wird.
Neue Chipsätze für highend SLI nutzer, wirds von Nvidia wohl nicht mehr geben -.-
 
Oh man Köstlich ^^ Habe jetzt die 4 Seiten Durch gelsen und ja ich kann nur lachen xD!!

Das Lager ist gespallten es gibt fast keine Leute mehr die es REALISTISCH sehen
es gibt nur noch die Extreme NV Seite und die Extreme ATI Seite.
die ATI Extreme Flamen über die Teuren Preise etcetcetc.
die NV Extreme Verteidigen ihre Karten

NV hat es Toll gemacht! ATI ist was Gutes Gelungen mit der 4 und neu der 5er serie

Und eines Mal vorweg!!

WEN NV untergeht dan kann ATI die Preise selber bestimmen (sie wären die Grösten) das würde heisen es gibt keine HD5850 für 200Euro mehr!! Genau so wäre es mit NV wenn ATI untergeht!

ATI FREUNDE FREUT EUCH das ihr weiter "BILLIGEREN" Karten kaufen könnt
NV FREUNDE FREUT EUCH das sie auch was LEISTEN müssen um noch was zu verkaufen!
 
terraconz schrieb:
Eine HD5770 ist nichtmal annähernd im Bereich einer 275 sondern ordnet sich eher knapp unter einer 260/216 mit 896mb ein. Und die neue DX Version ist seit DX9 nichtmehr so ein Zugpferd wie es das früher war. Früher sah man von z.b. DX7 auf DX8 oder DX8 auf DX9 riesige Sprünge in der Grafik und auch für die Entwickler hat sich viel getan aber seit DX9 hat man einen Grafik Level erreicht der 90% der Menschen mehr als ausreichend ist um zu zocken. Das sieht man auch z.b. am Erfolg der Konsolen, die haben eine viel schlechtere Grafik als ein PC heutzutage doch trotzdem reicht es den meisten Leuten. Die Mehrheit spielt sogar mit ihrer Xbox/PS3 auf nem alten SD TV und selbst damit sind sie zufrieden. Auch am Erfolg der Wii sieht man den Stellenwert der Grafik atm.
Ein schönes Beispiel hatte ich vor kurzem mit einem Kumpel von mir der nichts mit Games/Technik am Hut hat. Er kam kurz bei mir vorbei und ich spielte grade mal wieder DOOM 3 und er meinte ungefähr "WOW Wahnsinn wie realistisch die Games heute aussehen!" und das bei einem fast 5 Jahre alten Spiel. Versetzte dich mal in die Zeit um die Jahrtausendwende zurück, wenn du damals sagen wir im Jahr 2000 ein 5 Jahre altes Spiel gezockt hast bekamst "Augenkrebs". Denn das wäre dann eines der ersten PS1 Games gewesen und die sahen schrecklich aus um Vergleich zu dem was 2000 State of the Art ist.

Grundlegend stimme ich dir absolut zu. Grafik ist mMn der Part auf den ein Spiel am ehesten verzichten kann, dass haben quasi alle TOP Titel der letzten Jahre gezeigt. Spiele wie Crysis werden zwar gehypt, aber nur von sehr wenigen lange gespielt. Fast allle Spieleschmieden gehen heutezutage eher darauf ihre Titel einem breiten Publikum zugänglich zu machen. Ein sehr gutes Beispiel dafür könnte Supreme Commander 2 werden, bei dem Chris Taylor ja ganz klar gesagt hat, dass es ein Fehler war bei Supreme Commander 1 so stark auf High-End Hardware zu gehen (das Spiel knackt heute noch auf entsprechenden Karten mit vielen KIs jeden Rechner). Oder SC2 und D3 werden Grafisch wohl niemand vom Hocker reißen, aber darum gehts auch nicht.....

Allerdings darf man mMn auch nicht unterschlagen, dass der stagnierende PC-Spielemarkt hauptsächlich eine Folge von XP ist bzw. DX9 und 32 Bit. Das mag vielen nicht so bewusst sein, aber für viele Generes ist das ein enormes Problem, 32 Bit mehr als DX9. Sieht man mMn sehr gut daran wie sich der Markt seit XP entwickelt hat. Bei Spielen ist inzwischen ein Hauptkriterium, dass sie möglichst nur Grafikkartenlastig sind. Strategiespiele z.B. haben ja einen starken Niedergang erlebt bzw. haben sich sehr stark verändert und sind zunehmend zu sowas wie CoH, DoW2 oder WiC verkommen, also möglichst wenig Einheiten (so bleibt die CPU und RAM Belastung niedrig und die Grafikkarte ist wichtiger) etc.
Das erklärt auch warum abseits der Hardware "Freak" Gemeinden Hardware extrem uninteressant geworden ist. Ich kenne ehrlich gesagt kaum jemanden in meinem Freundes-, Bekannten- und Onlinefreundekreis der sich in letzter Zeit neue Hardware zugelegt hat. Mindestens 90% der viel gespielten Spiele laufen absolut TOP auf einem Rechner wie meinem der inwzwischen 3 Jahre alt ist (ok die 8800 nicht ganz). Das hätte es früher nie und nimmer gegeben. Dafür ist der Bedarf an zweit Rechner enorm gestiegen, ich kenne inzwischen wirklich viele die einen HDPC haben für Multimedia, Office, I-Net etc.

Insofern halte ich meine Erwartungen für Fermi nicht zu hoch, die Karte an sich könnte wirklich sehr interessant werden, nur die Käuferschicht ist wahrscheinlich sehr klein. Zu Zeiten der 8800 GTX war das einfach noch anders, da war es normal 400 und mehr € für eine Karte auszugeben. Heute sind es denke ich etwa 150€ die der durchschnittsgamer alle 2 Jahre bereit ist auszugeben.
Mfg
 
Evader schrieb:
Den gleichen Mumpitz hat man auch zur 295er lesen können, geht nicht, zu warm, zu hoher Verbrauch, physikalische Granzen, sülz, blubber.
Und die Leute hatten absolut recht. Es war unmöglich, eine Dual-GPU-Grafikkarte mit zwei G200 zu bauen. Erst der geschrumpte G200b machte das möglich.
 
Nvidia scheint mit der Konzentration des Highend-Marktes weg von Gaming hin zu GPGPU-Computing einen cleveren Weg gefunden zu haben, um langfristig nicht zwischen INTEL und AMD zermahlen zu werden.

Gamer wird Nvidia sicher in Zukunft mehr und mehr enttäuschen, aber der GPGPU-Markt hat wohl noch grosses Potenzial, und dort kann man auch die Preise erzielen, die für solche Monsterchips nötig sind.
GPGPU ist wirklich der richtige Weg gewesen, hab ja daran noch nie gezweifelt. Genau das richtige Mittel um Intel und ihre CPUs bluten zu lassen. Da sind noch so einige Milliarden zu holen...

Ob NV die Gamer im stich lässt oder Gamer enttäuscht, entscheidet sich beim Fermi und keine Sekunde vorher. Kann man also heute noch nicht sagen wies mit den Gamern weiter geht. Auf dem Papier sehen die Specs von Fermi sogar sehr gut aus, wies mit den kleinen Karten weiter geht muss man abwarten...

Und die Leute hatten absolut recht. Es war unmöglich, eine Dual-GPU-Grafikkarte mit zwei G200 zu bauen. Erst der geschrumpte G200b machte das möglich.
Eine HD 4870 X2 hätte trotzdem unter 100% Last mehr verbraucht. 2x 166Watt= 332Watt(GTX 295(2xG200 65nm) -> HD 4870 X2= 370Watt
Ein bisschen geschätzt und gerundet aber das traue ich mich wetten, ATI hat mit der HD 4870 X2 alle Specs. gesprengt...
http://ht4u.net/reviews/2010/sapphire_radeon_hd_5570/index10.php
 
Zuletzt bearbeitet:
Dass nVidia gute Zahlen hinlegen wird, war abzusehen. Bereits im vierten Quartal 2009 war die Nachfrage auf dem OEM Markt gross, man kam kaum mit dem Fertigen der Chips zurecht.

Die Punkte die "Charlie" im verlinkten Artikel anspricht, sind nachvollziehbar, trotzdem zweifle ich daran, dass das alles so stimmt. Tatsache ist, dass nVidia mit dem Fermi etwas spät dran ist. Alles andere ist Spekulation; und der Vergleich mit Intel im Bezug auf Larrabee hinkt sehr.

Über die tatsächlichen Yields kann man nur spekulieren, TSMC und nVidia werden darüber nicht viele Worte verlieren. Dass nVidias Techniker Anfängerfehler machen, bezweifle ich ebenso. Aber in Kürze wird man die Karten offiziell vorstellen, dann werden wir erfahren, ob die Erwartungen zu hochgeschraubt waren.
 
riDDi schrieb:
Und die Leute hatten absolut recht. Es war unmöglich, eine Dual-GPU-Grafikkarte mit zwei G200 zu bauen. Erst der geschrumpte G200b machte das möglich.
Ja, aber nvidia will die Performance-Krone um jeden Preis, auch deutlich gegen 5970.

Man wird ja auch Surround-Gaming anbieten, also werden auch Review-Seiten natürlich die Performance zwischen Eyefinity und nvidia-Surround vergleichen. Und da hätte dann ein CrossfireX-Gespann(2x5970) leichtes Spiel. Das lässt sich nvidia nicht gefallen und bringt, was eben möglich ist. Was das genau ist, werden wir sehen.

ATI wird ja nun auch nahezu zeitgleich Trillian bringen (Eyefinity-Edition mit 6 DP-Ausgängen, 2GB und wohl auch etwas höherem Takt)

Die nächsten 2 Monate werden jedenfalls im High End sehr spannend. :)
 
wenn ich das so lese, denke ich dass Nvidia echt clever war und seine (wenigen) G200 Chips für FertigPCs verwendet hat. Da fallen die höheren Preise von Nvidia nicht so ins Gewicht, da ein Fertigsystem eh noch einen Preisaufschlag hat. Verpasst haben sie im Grunde auch nichts, weil Ati bis auf die 5770 er Karte eh kaum liefern kann und durch den Engpass bei Nvidia + Dollarkursanstieg die Preise so gestiegen sind, dass jetzt viele Interessenten eher (auf die Nvidiakonkurrenz) warten (zumal die Atikarten ja weiterhin kaum verfügbar sind), sei es um bessere Preise bei Ati zu bekommen, oder weil sie sich mehr Leistung von den Nvidiakarten erhoffen. Sogesehen sehr clever, wenn sicher auch viel Glück für Nvidia dabei war.

Nur auf GpGPU zu setzen, ist der falsche Weg. Zwar mögen die Gewinnspannen größer sein, das Käuferklientel ist aber viel zu klein (Videoschnitt, Grafikberechnungen?). Der Massenmarkt braucht keine solche Leistung, wahrscheinlich noch nichtmal eine Quadcore-CPU. Außerdem gibt es auch viel zu wenig Einsatzbereiche, wo dies Vorteile bringt und sobald Intel und AMD ihre 6 und mehr-Kern Prozessoren (vielleicht sogar + integrierter GPU), bekommt GPGPU auch wieder Konkurrenz, da die Anwendungen sicher auch von 6 und mehr-Kern CPUs profitieren dürften. Ich denke, um erfolgreich zu sein, muss man auf allen Hochzeiten tanzen. Der Massenmarkt der Zukunft ist sicher bei CPU + integrierter GPU zu finden. Der (High)Performance-Markt wird weiterhin auf separate Grafikkarte und separate CPU zurückgreifen und nur ein ganz kleiner Anwenderbereich dürfte einen Nutzen von GPGPU haben.
 
Zuletzt bearbeitet:
Kein Wunder... sagt doch Nvidia selber, daß sie 2/3 des Gewinns am Profisektor einfahren.
Da ist CUDA gefragt, DX9/10/11 ist da sowas von superwurscht!

So weit verbreitet sind diese CAD Karten jetzt auch wieder nicht.

Bei mir an der FH hab ich bis jetzt keinen einzigen Rechner gesehen der eine CAD Grafikkarte hat.
Und auch in vielen Ingenieurbüros trifft man auf die eher selten.
Die meisten Studenten wissen nicht mal was das ist.
In den Forum glauben ja einige dass es ohne nicht geht

Und bitte wer braucht Cuda ?

Ach stimmt kleine Softwareentwickler für die sich sonst keiner interessiert.
Schnell mal Cuda integriert wie bei Badaboom. Und schon betreiben Nvidia & sämtliche IT-Seiten kostenlos PR für dieses Programm.

der Rest der Industrie setzt auf OpenCL.
Setzt einer auf Cuda dauert es auch nicht lange bis auch Ati unterstützt wird
siehe Adobe Premiere und Vray
 
Zuletzt bearbeitet:
Ist ja auch nicht vekehrt sich noch eine GTX260 zu kaufen. Aber ich bitte davon abzusehen in jedem Thread Lobeshymnen auf den Lieblinshersteller zu singen.
Ständig wird auf den OC-Karten herumgeritten, obwohl der Sachverhalt nun gar nichts mit dem Topic zu tun hat.
Die GTX 260 216 OC Karten liegen etwa 20% vor einer HD5770 und sind somit in etwa so schnell wie eine HD4890/GTX275. Eine GTX285 wird von keiner GTX260 OC (ab Werk) erreicht und eine HD5850 schon gar nicht.
Edit: Solange ein Spiel gut ist und Spaß macht ist die Grafik zweitrangig, manche sehen das aber anders.
Directx11 rechtfertigt derzeit meiner Meinung nach keine neue Grafikkarte. Wer aber beispielsweise von einer 9800gt aufrüstet, sollte wenigstens so schlau sein und directx11 mitnehmen.

Du hast es weder in diesem Thread , noch in diesem hier geschafft, dir alles durchzulesen, aber erstmal was von "Lobeshymnen auf den Lieblinshersteller zu singen" schreiben, ist doch viel einfacher? ;). Somal ich nichts von der GTX285 geschrieben hatte. Die GTX280 wird ab Werk von OC Karten der GTX260 geschlagen, das steht im übrigen auch in dem Thread, den du auch nicht komplett gelesen hast;)

Mein Beitrag hier bezog sich auf Post #48 (ich zitiere)
müsste da nicht weniger Gewinn kommen wegen ATI HD5xxx Serie? denke nicht dass die Leute "alte" DX10 Graka kaufen um dann nochmals in die neue DX11 Grafikkarte zu investieren. Wenn meine alte kaputt gehen sollte, würde ich schon gleich gute ATI DX11 5xxx Karte kaufen ;-)

Also ich bitte dich, auch wenn du schon enorm viele Beiträge hier bei CB geschrieben hast, erst mal alles lesen, und auch verstehen!, welcher Beitrag zu welchem gehören könnte;)
 
Zuletzt bearbeitet:
Und bitte wer braucht Cuda ?
Supercomputer die kosten dann ein paar Millionen, aber ein paar Millionen weniger als CPU-Server und haben auch noch ein paar Millionen € weniger Stromkosten im Monat... (nebenbei sind sie noch zig fach schneller)
Aufbau im kleinen Rahmen: https://www.computerbase.de/forum/threads/programme-die-mit-der-gpu-rechnen.426771/#post-4303110
https://www.computerbase.de/2009-12/13-gpus-in-einem-desktop-supercomputer/

Wer jetzt noch an GPGPU zweifelt braucht nur auf Fermi warten, der bringt das ganze dann richtig ins rollen, dann gibts kein halten mehr... :D
 
Zuletzt bearbeitet:
Zurück
Oben