News AMD Radeon R9: Fury X kostet 649 US-Dollar und ist ab 24. Juni erhältlich

@BOBderBAGGER
Macht doch keiner. Es geht hier mehr um Weltanschauungen, so scheint es mir. Hier steht "Mir doch egal, eh alles sinnlos!" gegen "Kleinvieh macht auch Mist, vor allem in der Herde!"
 
Vendetta schrieb:
Die 8GB sind auch ne Investition in die Zukunft, die 390X wird wohl ne ausgezeichnete 1080p Karte für die nächsten 4-5 Jahre werden.

Naja wenn das dein Anspruch ist, könnte das sogar hinhauen.
Ich wollte eigentlich in dem Zeitraum eher so bei 4k auf 3 Bildschirmen zu nem vernünftigen Preis sein, sprich max 1000€ für wenn nötig 2 Grakas.

wir warten mal die Tests ab...
 
Zuletzt bearbeitet:
BOBderBAGGER schrieb:
Jungens wer sich bei dicken Spiele PC´s wegen 80W in die Hose macht hat das falsche Hobby. :king:
Es ist halt einfach eine Tatsache, wenn der Verbrauch von Karte A höher als der von Karte B ist. Das betrifft dann den Stromverbrauch und die Abwärme in's Gehäuse. Bei gleicher Leistung und gleichem Preis nehme ich dann natürlich die Karte A. Bei 10% Aufpreis von Karte A nehme ich persönlich immer noch Karte A, ab 20% greife ich zu Karte B. Andere greifen vielleicht noch bei 30% Aufpreis zu Karte A, weil das Gehäuse klein ist und die Innen-Temperatur eine große Rolle spielt. Das ist eine reine persönliche Entscheidungssache, je nach eigenen Präferenzen, mit "in die Hose machen" hat das nichts zu tun.
Richtig blöd wird es halt dann, wenn beiden Herstellern der Stromverbrauch egal ist, denn dann hat man irgendwann keine leistungsstarken Karten mehr in kleinen Gehäusen. Momentan greifen diese User eben zu Nvidia. Bei den CPUs ist es ja ähnlich, wer greift bei einem Mini-ITX-Gehäuse zu einem FX-8320, auch wenn das Preis-Leistungs-Verhältnis besser ist?
 
Zuletzt bearbeitet:
slsHyde schrieb:
Rumgeritten wird doch eher darauf, dass das ja angeblich egal und lächerlich sei mit dem Mehrverbrauch. Anstatt das einfach zuzugeben, das erhöht die Glaubwürdigkeit einer Argumentationslinie.

Jedem, der Umweltschutz als Argument bringt, Scheinheiligkeit vorzuwerfen, ist auch Unsinn und bringt genau die oben benannte Unglaubwürdigkeit der Argumentationslinien.
60-100W bei Volllast, sind lächerlich wenn man bedenkt das in deutschen Haushalten der Durchschnitt von 3150kwh liegt....

slsHyde schrieb:
AMD hat lediglich Intel-Design kopiert - das ist AMD. Kein wirkliche eigene Entwicklung.
Ach du bist das, stimmt. Absoluter Bullshit.
AMD hat nichts kopiert, sondern in den 70/80er Jahren in Lizenz gebaut. Das ist etwas vollkommen anderes als kopieren.
Schlichtes copy&paste
Ja, sonst hätte man gegen die Lizenz verstoßen, ergibt Sinn. Gell?
- wogegen Intel sich gewehrt hat, was dann Intel vorgeworfen wird. Ganz ehrlich: wäre ich Intel, würde ich mich dagegen auch wehren.
Aaaaahja. Intel verstößt gegen den Lizenzvertrag mit AMD und wird von Gerichten verurteilt... Komisch.
Auch alle anderen verschiedenen Prozesse, nicht nur gegen AMD hat Intel nach Prozess Verschleppungen auch verloren. armes intel, kein Täter sondern Opfer... :lol:

Dann hat AMD ATI aufgekauft. Innovation ... bisher noch nicht von AMD zu kaufen.
Dafür das AMD keine Innovationen gebracht haben soll wird aber ne Menge AMD Kram angewandt... :rolleyes:
 
Fried_Knight schrieb:
@BOBderBAGGER
Macht doch keiner. Es geht hier mehr um Weltanschauungen, so scheint es mir. Hier steht "Mir doch egal, eh alles sinnlos!" gegen "Kleinvieh macht auch Mist, vor allem in der Herde!"

Nur dass es eben hier nicht so ist. Ja schön, wenn man 100.000 Karten aufsummiert kommen 8 MW an Leistung raus. Wenn alle 24/7 damit zocken.
Und 8 MW sind ~ ein On-Shore Windkraft. Wahnsinn. Wir können eine Windmühle weniger aufstellen.

Dann stellt die Bahn einen ICE mehr aufs Gleis und die 8MW sind wieder weg. Ein ICE 3 braucht nämlich ziemlich genau 8 MW Dauerleistung:
https://de.wikipedia.org/wiki/ICE_3
 
slsHyde schrieb:
[...] AMD hat lediglich Intel-Design kopiert - das ist AMD. Kein wirkliche eigene Entwicklung. Schlichtes copy&paste [...]
Welche Firma war es doch gleich, die bereits vor 10 Jahren mit der Entwicklung eines Chips begonnen hat, der CPU und GPU kombiniert? Und was macht Intel heute? Ist nur ein Beispiel.
 
Mc_Luebke schrieb:
Gesparte Energie ist grundsätzlich gut, aber die Verhältnismäßigkeit sollte man nicht aus den Augen verlieren. Als AMD User einfach mal ein Wurstbrot weniger oder den Bleifuß etwas bremsen und die Bilanz ist wieder aufgehübscht.
Und mit Intel darf man mit Bleifuss den SUV bewegen? Das ist doch Quatsch, selbst wenn SUVs so sparsam wie PC Hardware wären. Umweltschutz regelt sich von alleine über den Geldbeutel. Wer wenig hat, macht weniger Schaden. Damit das auch alles rund läuft gibt es den jährlichen Klimagipfel mit 0 Resultaten. Wer die Umwelt schützen will, muss grün oder die anderen Spassparteien wählen, denn dann hat die Mehrheit weniger Geld um Schaden anzurichten.
 
Zuletzt bearbeitet:
Bei den CPUs ist es ja ähnlich, wer greift bei einem Mini-ITX-Gehäuse zu einem FX-8320, auch wenn das Preis-Leistungs-Verhältnis besser ist
Niemand, denn es gibt leider keine AM3+ ITX Bretter hier muss AMD mit der Nächsten Gen CPUs dringen nachbessern. Der einzige Grund warum ich eine 970 im Kasten habe ist das kurze Referenz PCB.
 
Zuletzt bearbeitet:
@dgschrei
Und auch du magst nicht so recht die größere Dimension... 100W bei der Grafikkarte, 200W beim Kühlschrank, 20W beim Fernseher...
Und dann kannst du insgesamt schon nicht mehr von 100.000 rechnen, sondern von ein paar mio Leuten.
Man muss nur dieses Gedankengut bei einem anstehenden Neukauf ausblenden, dass "die paar Watt" zum Vergleichsgerät eh nichts ändern. Das tun sie. Vor allem, wenn man bei der roten Linie bleibt. Dafür muss man sich nicht mal Quälen. Man kann ja trotzdem die Leistung kaufen, die man braucht.
 
slsHyde schrieb:
AMD hat lediglich Intel-Design kopiert - das ist AMD. Kein wirkliche eigene Entwicklung. Schlichtes copy&paste [...weiteres Märchenblabla]

Jopp, genau. Beispielsweise hat AMD ganz dreist die AMD64-Architektur von Intel kopiert, wobei unklar ist, was "AMD" da in dem Namen zu tun hatte... :freak: <<Kopf -> Tisch>> (@CB, wo bleibt euer Facepalm-Smiley?)
 
BOBderBAGGER schrieb:
Jungens wer sich bei dicken Spiele PC´s wegen 80W in die Hose macht hat das falsche Hobby. :king:

Was aber viele vergessen oder übersehen ist, das jede neue Graka-Generation immer was an den Watt drauflegt:

http://www.techspot.com/article/942-five-generations-amd-radeon-graphics-compared/page8.html

Also bei ~40 Watt mehr Verbrauch pro Graka-Generation werden über 4 Jahre ~150 Watt mehr Verbrauch.
Wenn man das jetzt weiterdenkt und die jährlich steigenden Strompreise+andere Lebenshaltungskosten bedenkt, kann man sich zocken am PC bald nicht mehr Leisten bzw. nur noch die wenigsten.


Also ich möchte kein PC, der mir unter Vollast 1KW/h oder mehr aus der Dose zieht....es sei denn, das die Strompreise sinken. ;)
 
Zuletzt bearbeitet:
Das ist halt der Vorteil von HBM
Die Karten werden nicht nur kürzer, sondern "verbrauchen" auch dadurch weniger. Der "Wahn" das die Karten immer schneller werden müssen und deshalb der "Verbrauch" wieder steigt wird halt auch von der Kundschaft gefordert. Man stelle sich vor was hier los wäre wenn AMD Ihr High End Karte mit HBM von der Leistung her auf R9 290x gelassen hätte. Dann wäre das Geschrei aber groß :D
 
@R00tMaster
Keiner mehr leisten kann... ? Dezente Übertreibung.

Und warum macht sich keiner Gedanken über die Mainboards, bei denen es auch enorme Unterschiede gibt bzgl Verbrauch? Oder bei GSync Monitoren? Kleinvieh macht ja auch Mist wird hier ja gerne erwähnt.
 
Ob in Lizenz oder wie später ohne Lizenz einfach kopiert - es bleibt copy&paste ohne eigene Innovation.
Das CPU und GPU auf einen Chip kommen - war schon 20 Jahre vorher als Ziel gesetzt - keine AMD-Innovation.
Ob Intel in den Prozessen Täter oder Opfer ist mag dahin gestellt sein - wir sind da kaum ausreichend Juristen.

Was ich meine: AMD hat keine oder kaum tatsächliche Innovation. Das bringt einen nun mal nicht an die Spitze, keine eigenen Produkte zu entwickeln. Man kann dann über die anderen, die eigene Entwicklungen vermarkten schimpfen und unten bleiben - oder was ändern.
Ergänzung ()

Wolfsrabe schrieb:
Jopp, genau. Beispielsweise hat AMD ganz dreist die AMD64-Architektur von Intel kopiert, wobei unklar ist, was "AMD" da in dem Namen zu tun hatte... :freak: <<Kopf -> Tisch>> (@CB, wo bleibt euer Facepalm-Smiley?)

Richtig - hier hatte AMD mal kurz die Nase vorne. Mit entsprechend steigenden Verkaufszahlen. Das ist wie ich sage also der Weg ... anstatt über andere Schimpfen - besser sein!
 
Zuletzt bearbeitet:
@slsHyde
Was du jedoch vernachlässigst ist, das AMD unglaublich viel Geld in diverse Prozesse stecken musste und somit nun deutlich weniger Budget zur Verfügung hat. Erst jetzt versucht man sich langsam wieder aufzurappeln ;)

Aber das hat alles eh nichts mit dem thema hier zu tun^^
 
PiPaPa schrieb:
@R00tMaster
Keiner mehr leisten kann... ? Dezente Übertreibung.

Fakt ist, das nunmal alles teurer wird (Miete, Strom etc.). Fakt ist auch, das man ja schon von Energiearmut spricht.

Und nicht jeder Verdient soviel oder bekommt jährlich/regelmäßig Lohn-/Gehaltserhöhungen die das alles wieder auffangen, und man muß sparen und ist gezwungen auf was zu verzichten.
 
@PiPaPa
Also ich weiß ja nicht, aber die Tests, die ich so lese, beinhalten immer auch Verbrauchsangaben. Auch zu Mainboards.
Du suchst wieder ein Extrem, um die "Null Bock"-Ansicht zu rechtfertigen. Warum versucht du ständig Vernunft mit Qualen bzw. Verzicht gleichzusetzen?
Keiner verlangt dieses Extrem. Du solltest nur mal verstehen, dass der Verbrauch ein valides Kaufkriterium ist und durchaus eine Wirkung auf deine Umwelt hat. Es ist einfach nicht völlig egal.
 
slsHyde schrieb:
Ob in Lizenz oder wie später ohne Lizenz einfach kopiert - es bleibt copy&paste ohne eigene Innovation.
Ohne Lizenz? Einfach kopiert? Erzähl keinen Müll. AMD hatte immer und hat eine x86 Lizenz.

Das CPU und GPU auf einen Chip kommen - war schon 20 Jahre vorher als Ziel gesetzt - keine AMD-Innovation.
Achso, wer hatte denn vor 20 Jahren das schon als Ziel? Intel? Hatten sie es in der Schublade vergessen?
Ob Intel in den Prozessen Täter oder Opfer ist mag dahin gestellt sein - wir sind da kaum ausreichend Juristen.
Wir nicht... Die Juristen, die Intel aber verurteilt haben, aber schon. Und es ist ha nicht nur der eine Prozess der EU gewesen... :rolleyes:

Was ich meine: AMD hat keine oder kaum tatsächliche Innovation. Das bringt einen nun mal nicht an die Spitze, keine eigenen Produkte zu entwickeln. Man kann dann über die anderen, die eigene Entwicklungen vermarkten schimpfen und unten bleiben - oder was ändern.
Welche Innovationen hat denn Intel bis auf x86 gebracht?

Richtig - hier hatte AMD mal kurz die Nase vorne. Mit entsprechend steigenden Verkaufszahlen. Das ist wie ich sage also der Weg ... anstatt über andere Schimpfen besser sein!
:lol:
Bei kleinen Selbstbauern vielleicht. Marktanteil derer (zu der Zeit noch weniger) - kaum relevant, weil Intel alle und allesmögliche geschmiert und bedroht hat.
 
Zuletzt bearbeitet:
Was ist denn hier eigentlich wieder los Leute? bleibt mal wieder auf dem Teppich. Ihr zerfleischt euch schon wieder unnötigerweise, weil ihr ja so überzeugt von eurem Wissen seid, dass alles und jene Grafikkarte/CPU so und so abschneiden wird. Wartet doch die ersten richtigen Tests ab, anstatt hier schon wieder die Glaskugel zu nehmen und zu sagen: So wirds sein und nicht anders. Dieses ständige hin und her geflamme. Der reinste Kindergarten. Hier gehts um die Grafikkarten und nicht um CPUs!

AMD hat meiner Meinung nach alles richtig gemacht. Das wird einschlagen, da bin ich mir sicher.
Auch wenn jetzt manche sagen: Ah, die Vorstellung war ja nicht so pralle, Nvidia hätte das viel mehr gepusht. Wen interessierts? Die Nachricht ist doch angekommen und das ist es, was wichtig war. Ganz gleich wie viele Plakate da hängen. Punkt aus.

Gruß Andy
 
Zurück
Oben