Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Nvidias Gewinn bricht um 74 Prozent ein
- Ersteller Volker
- Erstellt am
- Zur News: Nvidias Gewinn bricht um 74 Prozent ein
C
claW.
Gast
ja das ist er. grob gesagt, ist der rv770 eine extrem effizienzgesteigerte architektur, basierend auf dem rv670 (lesenswertes darüber hier auf cb und pcgh). im gegensatz dazu, ist der g200 ein leicht verbesserter g92, mit mehr transistoren. nv hat bei der generation ja noch nicht mal geschrinkt, obwohl 55 nm schon sehr lange existieren. eine größere architektur- bzw. effiziensverbesserung gibt es bei der neuen gtx serie ja nun nicht. außer man mag mich eines besseren belehren.DvP schrieb:Oder, dass der Unterschied von G92 zu G200 kleiner ist als jener zwischen 3870 und 4870 (also RV670 zu RV770). Klingt etwas nach flaming was du da von dir gibst.
DvP
Admiral
- Registriert
- März 2001
- Beiträge
- 9.565
@ claW.
Anscheinend ist das ansichtssache wobei ich deine Meinung trotz Nachlesen nicht vertreten könnte. Die Unterschiede sind nicht so gering wie du sagst und schon garnicht geringer als beim schritt von RV670 zu RV700. Um auf ein konkretes Beispiel von dir zu reagieren: Vergleich mal die Energieeffizienz bzw. Watt/Performance zwischen G80 und G200 ;-)
Offensichtlich kann man sich darüber aber streiten, das sehe ich auch so.
@ ALL
Ich finde es auf jeden Fall sehr gut, dass sich die Fanparteien zwischen nVidia und ATI offensichtlich langsam auflösen. Das ist sicher durch die stetigen Machtwechseln in Midrange und Highend bedingt. Beide Konzerne (AMD und nVidia) bieten das erste mal seit unzähligen Jahren super Spieleperformance zu leistbaren Preisen. Der Konsument wird aus beiden Lagern gut bedient und nutzt das reichhalte Angebot auch mehr nach den Ansprüchen als aus Grund von firmenpolitischen Vorlieben. Resultat ist ein Vorteil für alle, da die reine Qualität einzelner Produkte fast schon alleinig über den Erfolg entscheidet.
P.S.: Ui das ist Post 5000 *selbstaufdieschulterklopf* :-)
Anscheinend ist das ansichtssache wobei ich deine Meinung trotz Nachlesen nicht vertreten könnte. Die Unterschiede sind nicht so gering wie du sagst und schon garnicht geringer als beim schritt von RV670 zu RV700. Um auf ein konkretes Beispiel von dir zu reagieren: Vergleich mal die Energieeffizienz bzw. Watt/Performance zwischen G80 und G200 ;-)
Offensichtlich kann man sich darüber aber streiten, das sehe ich auch so.
@ ALL
Ich finde es auf jeden Fall sehr gut, dass sich die Fanparteien zwischen nVidia und ATI offensichtlich langsam auflösen. Das ist sicher durch die stetigen Machtwechseln in Midrange und Highend bedingt. Beide Konzerne (AMD und nVidia) bieten das erste mal seit unzähligen Jahren super Spieleperformance zu leistbaren Preisen. Der Konsument wird aus beiden Lagern gut bedient und nutzt das reichhalte Angebot auch mehr nach den Ansprüchen als aus Grund von firmenpolitischen Vorlieben. Resultat ist ein Vorteil für alle, da die reine Qualität einzelner Produkte fast schon alleinig über den Erfolg entscheidet.
P.S.: Ui das ist Post 5000 *selbstaufdieschulterklopf* :-)
Zuletzt bearbeitet:
@b-runner
Das lustige da dran ist ja: Nvidia hat für den Endkunden noch kein Finger krumm gemacht. Der Verlust liegt ja derzeit nur auf den eigenen defekten Chips. Was das kostet wenn man erstmal die Lösung, an der ja schon ewig gearbeitet wird und von der man nix hört, umsetzt - ja wenn überhaupt noch in diesem Leben etwas passieren sollte
Solangsam kommt mir das nämlich als: Wir warten bis die Hersteller-Garantie abgelaufen ist - Taktik vor
... und ja ich weiß, dass nicht die Chips an sich den defekt haben sondern das Lötzinn, welches die Temperaturschwankungen nich verkraftet ...
Das lustige da dran ist ja: Nvidia hat für den Endkunden noch kein Finger krumm gemacht. Der Verlust liegt ja derzeit nur auf den eigenen defekten Chips. Was das kostet wenn man erstmal die Lösung, an der ja schon ewig gearbeitet wird und von der man nix hört, umsetzt - ja wenn überhaupt noch in diesem Leben etwas passieren sollte
Solangsam kommt mir das nämlich als: Wir warten bis die Hersteller-Garantie abgelaufen ist - Taktik vor
... und ja ich weiß, dass nicht die Chips an sich den defekt haben sondern das Lötzinn, welches die Temperaturschwankungen nich verkraftet ...
Zuletzt bearbeitet:
razz112
Cadet 4th Year
- Registriert
- Juni 2008
- Beiträge
- 126
Ich finde es persönlich zwar nicht gut, dass eine Firma einen so krassen Verlust einstecken muss, nur sind sie nun mal selbst dran schuld. Wie oben schon gesagt wurde, hat sich Nvidia mehr oder weniger auf ihren alten Erfolgen ausgeruht, während Ati AMD fleißig am tüfteln waren.
Magellan
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 22.679
Wem sagst du das... genau aus diesem Grund geht ja grade alles den Bach runter und sobald die Finanzkrise überstanden ist gehts genauso munter weiter.
Früher hätten sich Chefs vor scham selbst umgebracht wenn solch eine Blase platzt und herauskommt dass überall nur murks betrieben wurde - heute wird der Manager im schlimmsten Fall entlassen, geht zur nächsten Firma und verdient wieder zig Millionen.
Die Manager richten ihre Konzerne in vollem Bewusstsein zugrunde, hauptsache während der eigenen Amtszeit gibt es neue rekordgewinne egal was es kostet. Dass auf dauer nicht ständig jeder zig % Gewinnsteigerung einfahren kann und was in 2 oder in 5 Jahren ist interessiert keinen.
Früher hätten sich Chefs vor scham selbst umgebracht wenn solch eine Blase platzt und herauskommt dass überall nur murks betrieben wurde - heute wird der Manager im schlimmsten Fall entlassen, geht zur nächsten Firma und verdient wieder zig Millionen.
Die Manager richten ihre Konzerne in vollem Bewusstsein zugrunde, hauptsache während der eigenen Amtszeit gibt es neue rekordgewinne egal was es kostet. Dass auf dauer nicht ständig jeder zig % Gewinnsteigerung einfahren kann und was in 2 oder in 5 Jahren ist interessiert keinen.
DUNnet
Lt. Commander
- Registriert
- Sep. 2008
- Beiträge
- 1.612
gut so! Die sollen lieber klein anfangen und die Grakas in Maßen, aber zu guten Preisen, raushauen.
Aber ja - ich weiß! Die Shrink produktion ist so teuer! Dagegen hilft mehr auf Shader setzen wie ATi, oder ein kleinerer Fertigungsprozess!
Aber ja - ich weiß! Die Shrink produktion ist so teuer! Dagegen hilft mehr auf Shader setzen wie ATi, oder ein kleinerer Fertigungsprozess!
Suxxess
Admiral
- Registriert
- Feb. 2005
- Beiträge
- 7.215
Wenn man allerdings den Verlust bedenkt den sie im letzten Quartal eingefahren haben, dann haben sie den Gewinn um 180 Millionen gesteigert. Jetzt egal ob da Abschreibungen oder sonst was mit eingerechnet sind.
Klar sollte allerdings sein, dass Nvidia ordentlich Marktanteile an AMD verliert.
Dies führt zu einem ausgeglichenen Markt und Nvidia wird gezwungen mehr Geld in die Forschung zu stecken. Ich erinnere nur an AMD die trotz jahrelangen Flauten nicht an der Forschung gespart haben, das Ergebnis war der Athlon und der Athlon 64, der X2 u.s.w. .
Wer sich auf seinen Lorbeeren aufruht und den Mitbewerber machen lässt, der kiregt halt die Quittung. Wobei ich sagen muss der Preiskampf ist weder für ATI noch für nvidia von Vorteil, im Moment profitiert davon allerdings der Kunde.
Gerade jetzt wo der Chipsatzmarkt wahrscheinlich zurückgehen wird, wird der Grafikmarkt für Nvidia noch wichtiger werden.
Klar sollte allerdings sein, dass Nvidia ordentlich Marktanteile an AMD verliert.
Dies führt zu einem ausgeglichenen Markt und Nvidia wird gezwungen mehr Geld in die Forschung zu stecken. Ich erinnere nur an AMD die trotz jahrelangen Flauten nicht an der Forschung gespart haben, das Ergebnis war der Athlon und der Athlon 64, der X2 u.s.w. .
Wer sich auf seinen Lorbeeren aufruht und den Mitbewerber machen lässt, der kiregt halt die Quittung. Wobei ich sagen muss der Preiskampf ist weder für ATI noch für nvidia von Vorteil, im Moment profitiert davon allerdings der Kunde.
Gerade jetzt wo der Chipsatzmarkt wahrscheinlich zurückgehen wird, wird der Grafikmarkt für Nvidia noch wichtiger werden.
- Registriert
- Juni 2006
- Beiträge
- 44.444
Obwohl ich eine 8800gt habe (Elitegroup mit Accelero S1 ab Werk, der Grund), ist das wohl die verdiente Quittung für schier jahrelanges ausschlachten der G80 Architektur.
Natürlich waren die 8800gtx/ultra damals ein Hammer, aber man hat sie Ewigkeiten künstlich im Preis hoch gehalten und danach 3x ein Facelift draus verwurstet.
Als "Nachfolger" kamen dann diese maßlosen Stromschleudern in Form der GTX260/280 zu - aufgrund der Architektur - sehr hohen Preisen. Niemandem nutzt Schadenfreude etwas, aber sie haben es selbst so gewählt.
Um mein Posting endgültig subjektiv zu machen: Die Denebs könnten diesen Trend fortsetzen. Auch die Nehalems sind (mir) zu teuer, heiß, einfach zu globig.
Natürlich waren die 8800gtx/ultra damals ein Hammer, aber man hat sie Ewigkeiten künstlich im Preis hoch gehalten und danach 3x ein Facelift draus verwurstet.
Als "Nachfolger" kamen dann diese maßlosen Stromschleudern in Form der GTX260/280 zu - aufgrund der Architektur - sehr hohen Preisen. Niemandem nutzt Schadenfreude etwas, aber sie haben es selbst so gewählt.
Um mein Posting endgültig subjektiv zu machen: Die Denebs könnten diesen Trend fortsetzen. Auch die Nehalems sind (mir) zu teuer, heiß, einfach zu globig.
DvP
Admiral
- Registriert
- März 2001
- Beiträge
- 9.565
Zwirbelkatz schrieb:Natürlich waren die 8800gtx/ultra damals ein Hammer ...
Als "Nachfolger" kamen dann diese maßlosen Stromschleudern in Form der GTX260/280
Im Idle verbraucht eine GTX280 ca. 35!!!! Watt weniger als eine 8800GTX und in diesem Zustand befindet sich eine Grafikkarte auch zu mehr als 50% meistens deutlich mehr. Es seih denn jemand verwendet seinen PC ausschließlich zum Zocken und das über viele Stunden am Tag. Ansonsten sind die GTX 2X0 um einiges effizienter.
- Registriert
- Jan. 2006
- Beiträge
- 18.985
joar .. 2009 .. lassen wir es doch mal erst soweit kommen ..
in der graphik sparte - kann ich den anderen recht geben - da hat nvidia echt bissi müll gebaut.
ungenannte 8800er .. das war so das Highlight der verarschung - war ja über extra benannt.
naja .. ich wollt erst auch eine Graka von denen haben - aber momentan ist da echt nicht wirklich was dolles dabei.
in der graphik sparte - kann ich den anderen recht geben - da hat nvidia echt bissi müll gebaut.
ungenannte 8800er .. das war so das Highlight der verarschung - war ja über extra benannt.
naja .. ich wollt erst auch eine Graka von denen haben - aber momentan ist da echt nicht wirklich was dolles dabei.
myopF
Ensign
- Registriert
- Dez. 2006
- Beiträge
- 242
naja war zu erwarten, da sieht man mal was passiert wenn man den markt nicht einfach dominieren kann wie zu 8800gtx zeiten. das war schon eien traurige periode für den kunden.
harte konkurrenz ist immer noch der beste garant für schnelle entwicklung und zudem kundenfreundlich.
@b-runner
nv macht immer noch genug gewinn und zudem sind ein teil auch nur einmalige rücklagen für das lötzinn debakel, ich sehe das als einen gerechtfertigten dämpfer den nv zum ansporn nehmen sollte.
harte konkurrenz ist immer noch der beste garant für schnelle entwicklung und zudem kundenfreundlich.
@b-runner
nv macht immer noch genug gewinn und zudem sind ein teil auch nur einmalige rücklagen für das lötzinn debakel, ich sehe das als einen gerechtfertigten dämpfer den nv zum ansporn nehmen sollte.
Visualist
Lt. Commander
- Registriert
- Feb. 2006
- Beiträge
- 1.734
Bin super Happy mit meiner 8800gts 512mb Oc 65 Nano habe eine 1650*1080 Auflösung am laufen, FAR CRY 2 alles Very High ,Physik Ultra ,Terain Ultra unter Xp Minimum FPS 40 bevor ich die Karte Wechsel werde ,muss erstmal eine Karte kommen die Min 80Fps hat bei den Einstellungen.
Mfg
Mfg
Zuletzt bearbeitet:
tja, konkurrenz ist eben gut für den verbraucher und hält die preise auf vertretbarem niveau. finde die sollen sich mal nicht über deren gewinnspanne beschweren. was macht ein einzelhändler, 2-3%?
weiter so amd ( und nvdia natürlich auch ), immer schön auf augenhöhe bleiben ^^
weiter so amd ( und nvdia natürlich auch ), immer schön auf augenhöhe bleiben ^^
chinamaschiene
Lt. Commander
- Registriert
- Mai 2008
- Beiträge
- 1.257
das ist mal nen schlechte news. (also nicht die news aber halt das was drin steht). nvidia kommt bestimmt wieder auf die beine. also am besten nvidia produckte kaufen die sind ja jetzt auch nicht schlecht. das kann keiner sagen. freue mich schon auf dx11 karten die knallen dann bestimmt richtig rein
Mr_Blonde
Commander
- Registriert
- Apr. 2008
- Beiträge
- 3.049
@chinamaschiene
also am besten nvidia produckte kaufen die sind ja jetzt auch nicht schlecht.
Nur damit da wieder fette Gewinne sprudeln?
Das reguliert der Markt schon von ganz alleine.
Ausserdem tut AMD auch jeder Euro gut, die müssen endlich mal wieder konkurrenzfähige CPUs auf den Markt schmeissen.
Von einem Preiskrieg profitiert in erster Linie der Verbraucher.
MfG
Mr_Blonde
also am besten nvidia produckte kaufen die sind ja jetzt auch nicht schlecht.
Nur damit da wieder fette Gewinne sprudeln?
Das reguliert der Markt schon von ganz alleine.
Ausserdem tut AMD auch jeder Euro gut, die müssen endlich mal wieder konkurrenzfähige CPUs auf den Markt schmeissen.
Von einem Preiskrieg profitiert in erster Linie der Verbraucher.
MfG
Mr_Blonde
Ähnliche Themen
- Antworten
- 38
- Aufrufe
- 7.643
E
- Antworten
- 46
- Aufrufe
- 10.573
- Antworten
- 5
- Aufrufe
- 3.893
C
- Antworten
- 21
- Aufrufe
- 6.408