News AMD Radeon R9: Fury X kostet 649 US-Dollar und ist ab 24. Juni erhältlich

Die 390X hat laut nem geleakten 3D Mark ziemlich genau so schnell wie meine übertaktete GTX970 (fast auf den Punkt genau 12900 Grafikpunkte bei Firestrike). Die Frage ist natürlich wie weit das Teil noch übertaktbar wird, sie schneidet außerdem gut 2000 Punkte also 8% besser ab als eine 290X. Die 8GB sind auch ne Investition in die Zukunft, die 390X wird wohl ne ausgezeichnete 1080p Karte für die nächsten 4-5 Jahre werden.
 
YoWoo schrieb:
Mal kurz nachgehakt ... die Fury X soll 45 FPS @ 5K in Tomb Rider schaffen. Jetzt schauen wir uns das mal an:

Das wären dann 125% mehr Leistung als die 290X. Das wäre doch für den Preis der Hammer. Vielleicht stapeln sie tief, dass sie angeblich nur 50% schneller sein soll als die 290X, im Verhältnis zu den Tranistoren OK. Aber wie passen 45 FPS @ 5K mit 50% zu 125% zusammen?!?

Da wäre sie ja doppelt so schnell wie ne 980. Da sieht doch Nvidia kein Land mehr?!?

Anhang anzeigen 498789
Äpfel und Birnen mein Freund.

Ist ja toll das die Fury X 45fps in 5k schafft. Im intergrierten Benchmark. Warum du allerdings eine extra anspuchsvolle PCGH Benchszene(!!!!!!!!!) mit dem integrierten Benchmark vergleichst, erschliesst sich mir nicht. Und, nur so nebenbei, eine _nicht_ geboostete Titan X schafft schon weit über 60 fps im Benchmark @ 4k. Rechnen wir milchmädchenhaft das ganze auf 5k um kommen wir auf - *Trommelwirbel* - >40 fps. Da finde ich die ~45 fps nicht wirklich beeindruckend für eine AiO Karte mit mehr Stromverbrauch.
 
Fried_Knight schrieb:
@PiPaPa

Warum nicht mehreres gleichzeitig? Multitasking is nicht?
Es geht um die Relevanz und Relation von 100.000 Gamer GPUs im Vergleich zu Milliarden Haushalten, welche statt bei 28 grad nur 5- 10min zu duschen dies mit 38 grad und 20min machen, ebenso das tonnenweise Methan durch Rinder produziert werden.

Aber gleichzeitig dann seine ach so effizienten Intel und nvidia Systeme bis zum Anschlag zu übertakten interessiert dann auch wieder keinen.
 
flappes schrieb:
Ja der Stromverbrauch bei einem Gamer ist Wurst.

Aber 80 Watt Unterschied x 100.000 Gamer ist nicht mehr ganz so Wurst.

Doch ist es immer noch :evillol:. Das sind 8 MW das ist noch nicht mal ein Windrad ;)
Also im Sinne von Klimawandel oder so braucht man hier wirklich nicht argumentieren.

Die sinnigste Argumentation beim Verbrauch ist nach wie vor dass eine Stromfresserkarte schlichtweg laut ist und das nervt.
 
Mc_Luebke schrieb:
Ein Duopol ist nicht zwangsweise besser, in den meisten Fällen ist dies aber der Fall. Intel hat schon mehrfach bewiesen, dass sie ihre Marktmacht missbrauchen, das lässt nichts gutes erhoffen. Wer davon ausgeht, dass es nicht schlechter wird, wenn AMD Pleite ist, der geht vermutlich auch im Kasino zum Geldautomaten.

Die AMD-Pleite ist ja seit 15 Jahren in aller Munde ;) nur wird es sie so schnell und einfach nicht geben, weil beiden großen Gegenspielern nämlich anderweitige Konkurrenz fehlt. Solange ARM nicht stärker im x86 Revier wildert brauch Intel AMD um sich die Kartellbehörden vom Leib zu halten, bei Nvidia gäbe es immerhin noch die Intel iGPU, die man sich als Konkurrenz schön reden kann (Absatz- nicht Leistunsgtechnisch). Fernab von Fiji konzentriert sich AMD auf das was zumindest derzeit für sie Absatz generiert, früher waren das in erster Linie die Athlons, gab mal schöne Charts zu Phenom 2 Zeiten zu, wo 65% der CPUs Athlons waren, so in etwa dürfte es jetzt mit mittleren APUs aussehen, ein bisschen Aussitzen der Situation ist das sicherlich auch dabei, 8GB beim Fiji sind sicherlich problemlos möglich, aber entweder zu einem deutlich höherem Preis oder mit Lieferschwierigkeiten der Karten (Verfügbarkeit der Speicherchips), beides auch nicht unbedingt gut fürs Image. Letztlich bleibt aktuell zu hoffen das AMD im mittleren bis unterem Segment die Chips nach und nach durch kleinere Ableger des neuen Fiji austauscht.

€:
PiPaPa schrieb:
Und dennoch werden die so effizienten CPUs von Intel und nvidia GPUs übertaktet, und weder Abwärme noch Lautstärke werden besser dadurch und es wird zu entsprechend teuren Alternativen Kühllösungen gegriffen.

Die interessantere Frage ist, wie die Energieeffizienz bei beiden (Intel und Nvidia) ohne AMD überhaupt aussehen würde ;)
 
Zuletzt bearbeitet:
@PiPaPa
Jede Reise beginnt mit einem ersten Schritt. Wenn man so vorgeht, wie du es propagierst, kann man doch gleich das Atmen einstellen. Nach mir die Sintflut?
Bei einer Neuanschaffung kann und sollte man schon darauf achten, dass nicht unbedingt die Produkte im Korb landen, die noch zusätzlich Dreck verursachen.
Wenn das jeder tun würde... das macht schon einen Unterschied.

@unter mir: und dann hat man noch immer mehr Leistung/Watt, als wenn man genauso mit einer - von Werk ab - Energieschleuder verfahren würde.
 
Zuletzt bearbeitet:
dgschrei schrieb:
Die sinnigste Argumentation beim Verbrauch ist nach wie vor dass eine Stromfresserkarte schlichtweg laut ist und das nervt.
Und dennoch werden die so effizienten CPUs von Intel und nvidia GPUs übertaktet, und weder Abwärme noch Lautstärke werden besser dadurch und es wird zu entsprechend teuren Alternativen Kühllösungen gegriffen.
 
mhd_ec_alex schrieb:
Die AMD-Pleite ist ja seit 15 Jahren in aller Munde ;) nur wird es sie so schnell und einfach nicht geben, weil beiden großen Gegenspielern nämlich anderweitige Konkurrenz fehlt.

Darauf setze ich auch, allerdings hat mir hier immer den Eindruck als wäre die Pleite von AMD genau das auf das hier viele hoffen. Warum auch immer. Vielleicht landet AMD ja mal wieder ein Meisterstück und kann sich etwas Luft verschaffen.
 
Fried_Knight schrieb:
@PiPaPa
Jede Reise beginnt mit einem ersten Schritt. Wenn man so vorgeht, wie du es propagierst, kann man doch gleich das Atmen einstellen. Nach mir die Sintflut?
Bei einer Neuanschaffung kann und sollte man schon darauf achten, dass nicht unbedingt die Produkte im Korb landen, die noch zusätzlich Dreck verursachen.
Wenn das jeder tun würde...
Wenn du so ein Heiliger bist, so müsstest du jede Neuanschaffung darauf reduzieren bis ein defekt auftritt, und besten sowas sinnloses wie Zocken ganz einstellen.
Und ob nun unter Volllast 60-100W Mehrverbrauch vorhanden sind, ist ein Witz!

Edit: und deine energetisch katastrophale Kalt Licht Kathode aus deinem Sysprofil hast du hoffentlich bereits ersetzt! Trägt nicht gerade zur Umwelt bei sinnlos einen PC Innenraum auszuleuchten
 
Zuletzt bearbeitet:
@PiPaPa
Wieder: es ist ein nur Witz für den Einzelnen. Du kannst scheinbar nicht in größeren Dimensionen denken. Und nein, man muss auch nicht mit der Selbstkasteiung anfangen. Es geht einfach darum: wenn man die Wahl hat und eine Anschaffung eh gemacht wird, warum dann so egoistisch handeln? Wozu noch Benzin ins Feuer gießen?

(Edit: vermutlich geht da gerade wieder der Fan eines Großkonzerns in dir durch, aber da wird es doch mit der Nano auch besser?)
 
Zuletzt bearbeitet:
Es ist vollkommen okay auf den Verbrauch zu achten, dagegen sage ich auch nichts.
Es ist nur etwas lächerlich das hier soo enorm darauf herumgeritten wird.
Fleichzeitig sein System zu übertakten und dann womöglich noch im Alltag sinnlos Energie verbraten, aber hier dann bei einer GPU den grünen Messias zu mimen.

@Fried Knight
Dann entferne umgehend deine sinnlose Beleuchtung im Gehäuse. Der Umwelt zuliebe.

Edit: auch wenn du es mir unterstellt ein Fanboy zu sein, so muss ich dich leider enttäuschen.
 
Zuletzt bearbeitet:
Warum muss eigentlich unter jeder AMD News dieses unerträgliche Thema aufkommen?
AMD hat das schon immer durch den Preis ausgeglichen und im Bereich GPU sollte es kein wunder sein das die im Vergleich zur Konkurrenz mehr verbrauchen
 
CyberdyneSystem schrieb:
AMD hat das schon immer durch den Preis ausgeglichen ...

genau deswegen gehts AMD schlecht. Über den Preis "ausgleichen" ist nie im Interesse des Unternehmens.
 
@Fried Knight
Dann entferne umgehend deine sinnlose Beleuchtung im Gehäuse. Der Umwelt zuliebe.

Die ist aus und wird nur bei Besuch oder wenn es die Stimmung benötigt angeschaltet (und verbraucht unter 3 Watt). Kaltlichtkathoden liegen immer Schalter bei, weissu?
Außerdem: Selbstkasteiung habe ich - wie gesagt - nicht gefordert. ;)
 
PiPaPa schrieb:
Rumgeritten wird doch eher darauf, dass das ja angeblich egal und lächerlich sei mit dem Mehrverbrauch. Anstatt das einfach zuzugeben, das erhöht die Glaubwürdigkeit einer Argumentationslinie.

Jedem, der Umweltschutz als Argument bringt, Scheinheiligkeit vorzuwerfen, ist auch Unsinn und bringt genau die oben benannte Unglaubwürdigkeit der Argumentationslinien.
 
Gesparte Energie ist grundsätzlich gut, aber die Verhältnismäßigkeit sollte man nicht aus den Augen verlieren. Als AMD User einfach mal ein Wurstbrot weniger oder den Bleifuß etwas bremsen und die Bilanz ist wieder aufgehübscht.
 
CyberdyneSystem schrieb:
AMD geht es durch ganz andere Dinge "schlecht" (z.b. durch Marktmanipulation ) ;)

Hmm - könnte das vielleicht auch andere Ursachen haben?

AMD hat lediglich Intel-Design kopiert - das ist AMD. Kein wirkliche eigene Entwicklung. Schlichtes copy&paste - wogegen Intel sich gewehrt hat, was dann Intel vorgeworfen wird. Ganz ehrlich: wäre ich Intel, würde ich mich dagegen auch wehren.
Dann hat AMD ATI aufgekauft. Innovation ... bisher noch nicht von AMD zu kaufen.
 
Zurück
Oben