News Unternehmensstruktur: AMD dementiert Aufspaltung oder Ausgliederung

max10 schrieb:
Das einzige was sich schnell ändert, ist nvidias steigender Anteil.

Anhang anzeigen 499544 ;)

Sicher hast Du auch bemerkt das dort Intel fehlt, mit Einrechung der GPU in der CPU, ist Intel Marktführer. Nvidia ist so gesehen auch nur ein Nischenanbieter.

mfg
 
PiPaPa schrieb:
Und die Sache ist vorbei? Komisch, hat Intel inzwischen ihr Unrecht zugegeben - trotz Strafzahlungen?
Hat AMD sich inzwischen davon erholen können?

Und warum sollte man eine solche Vergangenheit von Intel ruhen lassen? Warum es tot schweigen? Es ist ja nicht die einzige Verfehlung dieses Konzerns, sondern zieht sich wie ein roter Faden durch die Unternehmensgeschichte.

Man sollte es langsam mal zu den Akten legen, damit man sich auf die heutigen Probleme konzentrieren kann. Denn wenn man immer an der Vergangenheit rumheult, dann übersieht man z.B. dass AMDs letztes Quartal das schwächste der letzten 10 Jahre war. Und das kann nicht nur an irgendwelchen Marktmanipulationen von anno schnuff liegen. In dieser Zeit ist auch noch viel anderes passiert.

- APUs gebaut die kaum jemand wollte
- Versucht x86+ARM im Serverbereich etablieren und aufgegeben
- CPU-Sparte mit Bulldozer vor die Wand gefahren

Wenn man nach vorn steuern will und muss, dann kann man nicht ewig nach hinten schauen. AMD macht das übrigens auch nicht, sondern immer nur Kommentatoren in Foren.
 
Zuletzt bearbeitet:
flappes schrieb:
100 Watt weniger Stromverbrauch bei gleicher Leistung ist als nicht deutlich besser? Und ja ich hab ne AMD Karte.
Finde ich jetzt nicht so schlimm...ich zocke max. 10h/Woche und in der Lautstärke macht es dank gutem Kühler nix aus.
Bei der CPU ist das da schon anders, die wird viel öfter beansprucht.
 
flappes schrieb:
*hust* 100 Watt weniger Stromverbrauch bei gleicher Leistung ist als nicht deutlich besser?
Welche AMD-Grafikkarte verbraucht 100W mehr als eine gleichwertige Nvidia-Karte? Na? Genau, gar keine.

Bist wohl wieder nur am Zahlen fabrizieren um dich und den Rest der grünen Fraktion aufzugeilen. :rolleyes:
 
max_1234 schrieb:
Und ich find es herrlich wenn man Neuentwicklungen wie Nano komplett übersieht und an seinem Stromfresser Argument hängen bleibt, nur um überhaupt was daher zu kritzeln und sich für 10s wichtig zu fühlen.

Das was man bei AMD Karten mehr für Strom bezahlt ist bei Nvidia Karten von Anfang an als Preis-Aufschlag eingerechnet. Das kapieren einige wohl nicht. Idiocracy lässt grüßen.

mfg,
Max

Ist die Nano lieferbar? Nein. Gibt es zu ihr Testergebnisse ? Nein.

Nicht nur Stromverbrauch ist wichtig, auch die Abwärme die aus dem Gehäuse abgeführt werden muss. Zudem bietet nvidia für viele zusätzlich auch HDMI 2.0 an.

Was bringt eine Nano, wenn sie erst in Q3/Q4 lieferbar ist? Momentan einfach gar nichts.

Idiocracy lässt grüßen.
 
Aldaric87 schrieb:
Ich finde es immer herrlich wenn das Strom/Abwärme Argument mit solchen Sprüchen entkräftigt werden soll. Es hört sich für mich immer wie eine Rechtfertigung an, auf die Art: "Kauft trotzdem AMD, die Leistung ist gleich !!!111".

Ich rechne dir jetzt mal vor was mich 100W mehr pro Stunde auf 2 std. am Tag ein Jahr kostet:
200w x 365= 146KW 73KW* 11 Cent = 8 euro und 3 Cent = ca. 2 Bier in einer Bar

:lol::lol::lol::lol::lol:

Diese Verallgemeinerung ist sowas von bescheuert,
eigentlich muss ein TE gefragt werden was er genau pro KW zahlt und dann kann man gegenrechnen
 
Zuletzt bearbeitet:
dexplus schrieb:
Welche AMD-Grafikkarte verbraucht 100W mehr als eine gleichwertige Nvidia-Karte? Na? Genau, gar keine.

Bist wohl wieder nur am Zahlen fabrizieren um dich und den Rest der grünen Fraktion aufzugeilen. :rolleyes:

Die R9 390 Nitro Saphire brauch im Gesamtsystem 397 Watt, und ist noch nicht OC't (wobei die wahrscheinlich sich eh nicht weit OC'n lässt, da die Karte mit Sicherheit schon am Limit läuft), die 970 (OC Variante!) als direkter Gegenpart brauch im Gesamtsystem 268 W.

Das ist kein unerheblicher Unterschied.
 
Äh das mit VW....doch. Bis auf ein bischen Optischer aufhübschung sind die letzten paar Golfs(und audis, und skodas, und seats) technisch identisch und basieren auf den selben Getrieben, Motoren und Baukästen für die Karorsserie. Eignetlich werden die Autos immer gleicher, lediglich das freischalten von Komfortfunktionen und motorleistung bezahlst du.
 
Zalpower schrieb:
Ich rechne dir jetzt mal vor was mich 100W mehr pro Stunde auf 2 std. am Tag ein Jahr kostet:
200w x 365= 146KW * 11 Cent = 8 euro und 3 Cent = ca. 2 Bier in einer Bar

:lol::lol::lol::lol::lol:

Es gibt auch Leute die den Rechner häufiger beanspruchen, arbeitstechnisch sogar, müssen. Das was nun über den Stromverbrauch von dir kommt, ist nichts mehr als eine Rechtfertigung eine AMD Karte zu kaufen. Dabei gibt es das Gegenstück aus dem grünen Lager schon seit 09 (oder 10)/2014.

Wo lebst du, dass du für ein KW nur 11 Cent bezahlst? Hier in der Region kostet im Schnitt ein KW gute 25-28 Cent.
 
Zuletzt bearbeitet:
Zalpower schrieb:
Ich rechne dir jetzt mal vor was mich 100W mehr pro Stunde auf 2 std. am Tag ein Jahr kostet:
200w x 365= 146KW * 11 Cent = 8 euro und 3 Cent = ca. 2 Bier in einer Bar

finde den stromquatsch zwar absolut sinnlos (großverbraucher im haushalt sind da andere), aber woher nimmst du die 11ct?
 
Zalpower schrieb:
Ich rechne dir jetzt mal vor was mich 100W mehr pro Stunde auf 2 std. am Tag ein Jahr kostet:
200w x 365= 146KW * 11 Cent = 8 euro und 3 Cent = ca. 2 Bier in einer Bar

:lol::lol::lol::lol::lol:

Diese Verallgemeinerung ist sowas von bescheuert,
eigentlich muss ein TE gefragt werden was er genau pro KW zahlt und dann kann man gegenrechnen

wasn das für ne Rechnung?
Wieso 146 kw und nicht 73 kw?
Und wer zahlt 11 cent pro kw/h?
Und in welcher Bar kostet das Bier 4 €?
 
Aldaric87 schrieb:
Die R9 390 Nitro Saphire brauch im Gesamtsystem 397 Watt, und ist noch nicht OC't (wobei die wahrscheinlich sich eh nicht weit OC'n lässt, da die Karte mit Sicherheit schon am Limit läuft), die 970 (OC Variante!) als direkter Gegenpart brauch im Gesamtsystem 268 W.

Das ist kein unerheblicher Unterschied.

Holy shit, wo nehmt ihr immer diesen Crap her?
http://www.tomshardware.com/reviews/nvidia-geforce-gtx-980-970-maxwell,3941-13.html
Kucken, lesen, lernen, verstehen.

(System Consumtion)
Power Consumtion GAMING: (gtx970) 179W vs (r9 290 uber mode) 231W = 52W
Power Consumtion TORTURE: (gtx970) 243W vs (r9 290 uber mode) 281W = 38W

Ein 512Bit SI und echte 4GB Vram fordern ihren Tribut.

Hier wird die gtx970 Windfore gegen ne 290 im Uber Mode verglichen, darfst gerbe nochmal 50W drauf rechnen (-30W für Custom Kühler, +50W für OC), 131W mehr werdens so oder so nicht.

mfg,
Max
 
max_1234 schrieb:
Holy shit, wo nehmt ihr immer diesen Crap her?
http://www.tomshardware.com/reviews/nvidia-geforce-gtx-980-970-maxwell,3941-13.html
Kucken, lesen, lernen, verstehen.

(System Consumtion)
Power Consumtion GAMING: (gtx970) 179W vs (r9 290 uber mode) 231W = 52W
Power Consumtion TORTURE: (gtx970) 243W vs (r9 290 uber mode) 281W = 38W

Ein 512Bit SI und echte 4GB Vram fordern ihren Tribut.

Hier wird die gtx970 Windfore gegen ne 290 im Uber Mode verglichen, darfst gerbe nochmal 50W drauf rechnen, 131W mehr werdens so oder so nicht.

mfg,
Max

Im geschlossenen Thread gibt es ein Bild dazu von einem Test über den Stromverbrauch. Daher nehmen die Leute, wie auch ich, die Zahlen.
 
Aldaric87 schrieb:
Ich finde es immer herrlich wenn das Strom/Abwärme Argument mit solchen Sprüchen entkräftigt werden soll. Es hört sich für mich immer wie eine Rechtfertigung an, auf die Art: "Kauft trotzdem AMD, die Leistung ist gleich !!!111".
Angenommen: Eine Grafikkarte verbraucht 50W mehr als eine andere Grafikkarte bei gleicher Leistung. Eine Kilowattstunde kostet 25 Cent.

Frage: Wie lange muss man zocken bis die Stromkosten für die ineffzientere Grafikkarte 10 Euro höher sind?

Antwort: 800 Stunden.

Das Problem ist, dass viele einfach nicht rechnen können. Wer täglich etwa 4 Stunden zockt (also ein Vielzocker bzw. Kellerkind), kommt auf etwa 1500 Stunden im Jahr.
 
Aldaric87 schrieb:
Im geschlossenen Thread gibt es ein Bild dazu von einem Test über den Stromverbrauch. Daher nehmen die Leute, wie auch ich, die Zahlen.

Dasselbe hab ich oben verlinkt. Gelesen? Nein.
Diese hohen Verbrauchswerte aus der Referenz-Zeit gibt es schon sehr lange nicht mehr, allein die Turbine frisst da 40+W weg, wenn man mit AMD Partnerkarten wie z.B. Sapphire vergleicht.

mfg,
Max
 
Zuletzt bearbeitet:
Aldaric87, freu dich doch einfach über nvidia und gut ist. Hör auf hier anderen deinen "nvidia ist Gott und Gott ist unfehlbar" aufzuzwingen. Lass es gut sein. Du glaubst daran, schön, freu dich, alles gut. Wenn andere AMD gut finden, hat dich das doch gar nicht zu stören, ist doch alles in Ordnung.
 
Es geht beim Verbrauch doch nicht unbedingt nur um die Kosten. Ein höherer Verbrauch geht doch auch mit einer höheren Wärementwicklung einher, wodurch die Kühllösungen wesentlich aufwendiger sein müssen, um die Abwärme aus dem Gehäuse zu leiten und dabei noch einigermaßen leise zu sein. Darüber hinaus lassen sich Karten mit höherem Verbauch meist weniger gut übertakten, jedenfalls nicht unter Luft.

Aber mal schauen, wie sich das mit der Fury X verhält. Allerdings befürchte ich, dass die Karte auch etwas hitzig sein wird. Warum sonst sollte AMD selbst auf eine Wasserkühlung setzen. Kann mir nicht vorstellen, dass ein Hersteller dies ohne zwingenden Grund tun würde. Aber das sind eigene Vermutungen. Trotzdem gehe ich davon aus, dass die Performance der Karten recht gut sein wird. Die Nano kommt meiner Meinung aber zu spät heraus.
Edit:
@Max. Der Verbrauch ist dadurch zwar gesunken, aber trotzdem im Verlgeich zur Konkurrenz noch wesentlich höher.

Aber zum eigentlichen Thema. Ich denke schon dass es solche Überlegungen bei AMD gab bzw. diese immer mal wieder aufkommen. AMD bleibt auch nichts anderes übrig, wie dieses zu dementieren. Denn wenn etwas an dem Gerücht dran ist und dies zu früh publik wird, würde das mit einem erheblichen finanziellen Schaden einhergehen. Der Aktienkurs würde erst einmal einbrechen und dadurch der Wert der CPU Sparte noch einmal sinken.
 
Zuletzt bearbeitet von einem Moderator:
Wolfsrabe schrieb:
Aldaric87, freu dich doch einfach über nvidia und gut ist. Hör auf hier anderen deinen "nvidia ist Gott und Gott ist unfehlbar" aufzuzwingen. Lass es gut sein. Du glaubst daran, schön, freu dich, alles gut.

Nö. nVidia ist sicherlich kein Gott, oder auch nur nahe dran, aber ich finde die Begründungen momentan warum man eine 3xx Karte kaufen sollte, von den Leuten hier einfach schwachsinnig. Wenn schon mit einer Nano argumentiert wird, die noch lange nicht auf dem Markt ist, dann schießt das den Vogel völlig ab.

max_1234 schrieb:
Dasselbe hab ich oben verlinkt. Gelesen? Nein.
Diese hohen Verbrauchswerte aus der Referenz-Zeit gibt es schon sehr lange nicht mehr, allein die Turbine frisst da 40+W weg.

mfg,
Max

https://www.computerbase.de/forum/attachments/xmi13tk-png.499195/

Hier nochmal für dich. Lesen hilft.
 
Das ist mal eine News. Da sieht man dass solche Gerüchte eigentlich gar nicht wert sind darüber zu berichten.
 
Zurück
Oben