News AMD R9 300: Neue Grafikkarten erscheinen erst im 2. Halbjahr

proko85 schrieb:
Ich komme auf 50€ mehr im Jahr bei 100 Watt Mehrverbrauch und da ich meine Grakas ca. alle 3 Jahre wechsle, macht es 150€ Unterschied. Viel wichtiger ist jedoch die Geräuschkulisse und die Abwärme, die mit höherem Verbrauch einhergeht.

Gut zu wissen , dann wird sich ein Wechsel von einer 560ti auf eine 960 bei mir wohl auch bemerkbar machen .
 
Luffy schrieb:
Stromverbrauch(stromumwandlung) !=TDP (Wärmeverlustleistung) Vom stromverbrauch (systemverbrauch) schenken die sich nicht viel.
Systemleistung FURMARK verbraucht die 290x normal weniger als die 980. http://images.anandtech.com/graphs/graph9059/72558.png

Aber das ist alles sehr relativ. Es geht um die abwärme.
Zum einen wird der reale Strombedarf von Hardware nahezu 1:1 in Wärme umgesetzt und zum anderen sagt die TDP an sich erstmal relativ wenig über den realen Strombedarf aus. Da geht es eher um die Leistung des Kühlsystems.
Genau deshalb sind Kurzzeitige Messungen auch sinnlos da sich das Kühlsystem relativ träge erwärmt, dies bei aktuellen Turbo Konstruktionen ausgenutzt wird und somit der Strumbedarf über der TDP liegen kann, solange die Karte kalt genug ist.

Hujax schrieb:
Die neuen 390er werden teuer sein!
Momentan gefällt mir die Sapphire Radeon R9 290X Tri-X OC [New Edition] für ~380€ sehr.
Die 390er werden mindestens preislich ab 500€ loslegen, den Sie müssen die 980 in P/L angreifen können.

Die bisherige Gerüchteküche spricht bei der 390er eher von der Leistung der aktuellen Titan X, weshalb ich eher mit einer Preislage von 600-750€ rechne. Also das gleiche Spiel wie seinerzeit mit der 290x.
 
@Thema:

Halb so wild. Hauptsache wir bekommen bald die versprochenen Infos! :)

proko85 schrieb:
Ich komme auf 50€ mehr im Jahr bei 100 Watt Mehrverbrauch und da ich meine Grakas ca. alle 3 Jahre wechsle, macht es 150€ Unterschied. Viel wichtiger ist jedoch die Geräuschkulisse und die Abwärme, die mit höherem Verbrauch einhergeht.
Du zockst jeden Tag etwa 5 bis 6 Stunden? Auch im Sommer?

Heftig. ^^
 
Zuletzt bearbeitet:
Was denkt ihr: War die Übernahme von ATI für AMD eine gute oder eine schlechte Entscheidung? Ich meine, die 5,4 Milliarden US-Dollar müssen ja auch erstmal wieder eingeholt werden und zuviel ich weiss, ging es ATI doch nicht schlecht als im vergleich zu 3dfx die für 120 Millionen Dollar an NVidia verkauft wurden.

Ist jetzt nur ein Gedanke von mir ;-)
 
olalaaa schrieb:
es gibt von der GTX970 auch ein modell das maximal 145 watt zieht (furmark) und in spielen ~130 watt.
die gigabyte 970 mini.

liegt von der performanz zwischen 290 und 290X. verbraucht aber um mindestens 100 watt weniger.
die gigabyte 970 mini bleibt trotz kleinem kühler bei ~70 grad und ist auch relativ leise unter last.
Hast du die Mini? Für den PC meiner Freundin haben wir die Mini gekauft. Im Idle brummt das Teil vor sich hin und unter Last glaubt man einen Staubsauer im Rechner zu haben. Ich gehe nach deiner Aussage fest davon aus, dass du keinerlei Erfahrung mit der Gigabyte 970 mini hast.
 
Mr.Smith84 schrieb:
Was denkt ihr: War die Übernahme von ATI für AMD eine gute oder eine schlechte Entscheidung? Ich meine, die 5,4 Milliarden US-Dollar müssen ja auch erstmal wieder eingeholt werden und zuviel ich weiss, ging es ATI doch nicht schlecht als im vergleich zu 3dfx die für 120 Millionen Dollar an NVidia verkauft wurden.

Ist jetzt nur ein Gedanke von mir ;-)

Der Preis vom ATI war ganz einfach zu hoch aber wo wäre AMD heute ohne die APUs, für die der Kauf letztendlich erforderlich war?
Wichtiger ist aber vielleich der (zwingend erforderliche) Bau der neuen FAB und die ein Jahr später einsetzende Kriese an den Finanzmärkten bei der z.B. Lehman Brothers den Bach runter ging.
Zu viele hohe Ausgaben in einem zu kurzen Zeitraum.
 
@Sontin: Habe in die Videos nur kurz reingesehen. Wie ist das denn mit der API von Nvidia? Sind diese GlobalIllumination-Befehle OpenGL-hersteller-spezifische Erweiterungen oder ist das eine eigene API (wie Mantle von AMD, jedoch keine Low-Level, sondern hier eben High-Level)?

An sich ist das nichts Neues, denn oftmals wird eine neue Hardware-Architektur mit Buzz-Words eingeläutet: Nvidia CineFX & CineFX 3.0
 
Finde ich schade.

Wollte eigentlich im Sommer wiedermal ein Update durchführen und dieses mal vlt. wieder AMD ausprobieren (Seit HD 5970 durchgehend nVidia verbaut gehabt). Aber das wird sich zeitlich nicht ausgehen. Vor allem wenn man nicht das Referenzdesign kaufen möchte. Die guten Custom-Designs werden wohl auch erst 1-2 Monate nach dem Launch verfügbar sein.
 
AMD hat das Problem, dass sie mit ihrem Wettbewerber INTEL bei der absoluten Rendite nicht mithalten können, was langfristig dazu führt, dass sie nicht die gleichen Summen in Forschung und Entwicklung investieren können. Die K7 Architektur war noch ein großer Wurf zu einer Zeit wo noch eine Hand voll Ingenieure und Informatiker so ein Teil realisieren konnten. Die Zeiten sind lange vorbei.

Hätte Intel nicht teure Fehler gemacht wie den Itanium oder die NetBurst-Architektur, wäre AMD schon einige Jahre früher am Abgrund gestanden.
 
F_GXdx schrieb:
AMD hat das Problem, dass sie mit ihrem Wettbewerber INTEL bei der absoluten Rendite nicht mithalten können, was langfristig dazu führt, dass sie nicht die gleichen Summen in Forschung und Entwicklung investieren können.

Welche Rendite, wenn man Verluste macht? ;)

F_GXdx schrieb:
Die K7 Architektur war noch ein großer Wurf zu einer Zeit wo noch eine Hand voll Ingenieure und Informatiker so ein Teil realisieren konnten. Die Zeiten sind lange vorbei.

Warum so weit zurück in der Zeit? Selbst die K10 Architektur war noch ganz o.k. Taktbereinigt ist K10 schneller als der FX.

F_GXdx schrieb:
Hätte Intel nicht teure Fehler gemacht wie den Itanium oder die NetBurst-Architektur, wäre AMD schon einige Jahre früher am Abgrund gestanden.

AMD hat mit dem FX im Prinzip denselben Fehler gemacht wie Intel mit NetBurst: man wollte (unter anderem) über die Taktfrequenz das Tempo steigern. Dabei hat man tlw. deutliche längere Latenzen (bei den Instructions als auch beim Zugriff auf die Caches) in Kauf genommen. Ganz schlechte Idee. Den Engpass im Frontend des FX eines Core-Moduls hat man mit den Nachfolgern etwas abgemildert... nichtsdestotrotz kann man mit dem FX nicht mehr viel reißen.
 
F_GXdx schrieb:
Hätte Intel nicht teure Fehler gemacht wie den Itanium oder die NetBurst
Hätte Intel sich an Gesetze gehalten, hätte AMD mit dem Athlon, egal ob Thunderbird, A64 oder A64 X2, und den Duron Modellen Geld verdient und Intel hätte sich in einem fairen Wettbewerb behaupten müssen... :rolleyes:

AMD hat das Problem, dass sie immer noch an den Folgen der illegalen Marktmanipulationen seitens ihres "Mitbewerbers" Intel zu arbeiten haben. Oder glaubt hier jemand das 10 Jahre illegaler Marktmissbrauch und den dadurch resultierenden finanziellen Schaden durch ein paar Patente in ~4 Jahren im Ansatz ausgeglichen werden könnte.
 
@Faust2011
Taktbereinigt war auch der P3 schneller als der P4 aber es gibt dennoch keinen P3 der schneller als die hoch taktenden P4 Modelle ist.
Und nein, das Problem der FX ist nicht das sie auf hohe Taktfrequenzen getrimmt wurden sondern das sie auf viele Kerne getrimmt wurden, etwas was beim P4 nahezu irrelevant war und bis heute mehr schlecht als recht in den Programmen umgesetzt wird. Die Dinger sind relativ langsam weil sie sich aufgrund von Unterforderung durch die Programme langweilen.
 
Ja, vielen Dank für die Wortklauberei ;)

Vielleicht stimmt ihr mir wenigstens zu dass man spätestens bei Bulldozer die Alarmglocken hat läuten hören. AMD hat einfach das Budget für F&E nicht mehr, das sie eigentlich bräuchten, um in der obersten Liga mitzuspielen. Da bleiben nur 2 Optionen: Allianz schmieden oder Geschäftsmodell radikal ändern, sonst bleibt nur noch der unvermeidliche Bankrott.
 
Och schade. Ich brauche endlich einen würdigen Nachfolger für meinen fiependen gtx 970 Ramkrüppel.
 
Das Problem an AMDs CPUs der Bulldozer Generation ist - das diese auf der massiven Benutzung von Multicore-fähiger Software aufbaut.

=> Das ist ein Gebiet dass es bis heute so nicht wirklich gibt.

Die Idee hintere Bulldozer und Co ist dass man "billig" quasi 8 Kerne realisiert (zu einem Preis den Intel nicht bieten konnte).

Dasa Problem war nur dass selbst jetzt noch KAUM überhaupt vernünftig multic-core Nutzende Software existiert.

Im Gaming sektor sowieso - da wurde seit 10 Jahren immer über CPU Limit geschimpft aber nicht ein bisschen darüber nachgedacht warum eigentlich 6/8 Kernen in einem Game quasi nichts machen und 1 Kern @100% Last ist und der zweite @20%...der rest bei 0% rumhängt.


Man sieht doch an den halbwegs guten multi-core fähigen Benchmarks games wieviel die seit 5 Jahrne nicht mehr weiterentwickelte Bulldozer Architektur leistet...da ist man einigermaßen gleichauf mit Intel und das bei einem Bruchteil der kosten.

LEIDER wird dann wieder alles gemittelt inklusive der 15 single-core Benchmarks in welchem die Intel architektur überlegen ist und siehe da. Fazit: Intel +XX% besser als AMD
Empfehlung kauft doch bitte alle Intel.

Zum Thema: GPUs und release:

Das einzig offizielle das ich von AMD gehört habe ist...release der next Gen GPU @Q2 2015...

Alles andere was seither insbesondere seit dem 970er fail im internet rumgeistert sind möchtegern gerüchte von all jenem die entweder von der 970gate affäre enttäuscht sind und jetzt dringend wieder "upgraden" wollen.

Ich selbst hab derzeit ne HD 6950 im System und denke seit Anfang des Jahres so langsam über ein Upgrade nach...da kann ich die 2-3 Monate bis zum Release der R9 390s warten....oder auch noch bis Herbst.

Preistechnisch ist alles >300€ eh nicht relevant für 99(,9)% der nutzer. Also mal sehen ob da was in der Region kommt.
 
Wadenbeisser schrieb:
@Faust2011
Taktbereinigt war auch der P3 schneller als der P4 aber es gibt dennoch keinen P3 der schneller als die hoch taktenden P4 Modelle ist.

Ja und? Was ich sagen wollte war, dass die Netburst-Architektur nur bei hohen Taktraten performt. Das war eben eine Sackgasse, da die Abwärme zum Problem wurde. Durch die extrem lange Pipeline litt auch die Latenz, gerade wenn sich (mal wieder) die Branch Prediction vertan hatte.

Wadenbeisser schrieb:
Und nein, das Problem der FX ist nicht das sie auf hohe Taktfrequenzen getrimmt wurden sondern das sie auf viele Kerne getrimmt wurden

Ja, der FX war extrem auf Multicore ausgelegt. Allerdings sind diese Cores verhungert, weil das Frontend sie nicht schnell genug versorgen konnte. Das wurde mit Piledriver, ... dann teilweise angegangen, soweit es eben noch möglich war. Darüberhinaus sind die Latenzen ein Problem. Das wurde bewußt so designt, da man diese mit hohen Taktraten kompensieren wollte. Also erzähle mir bitte nicht, dass dem nicht so sei.

F_GXdx schrieb:
Ja, vielen Dank für die Wortklauberei ;)

Du hast die ideale Basis für Diskussionen in diverse Richtungen geliefert. Wir müssen Dir danken ;)

garrulus schrieb:
Och schade. Ich brauche endlich einen würdigen Nachfolger für meinen fiependen gtx 970 Ramkrüppel.

Eigentlich hätten Dich die Tests stutzig machen müssen, oder? Es wurde laut genug dort darauf hingewiesen.
 
Also alles richtig gemacht, zumindest von meiner Seite.
Vor ca. 5 Monaten eine 980er EVGA geholt, war noch Zeit um im Frühjahr/Sommer etwas neues zu holen. Doch jetzt?
AMD kommt spät und NVIDIA wartet dann schon mit der 980er Ti. Ende von Lied? AMD verpennt, NVIDIA gewinnt wieder. Ziehe ich halt dann die alte Karte nur raus und stecke die neue rein, ohne irgendwelche Treiberupdates machen zu müssen.
AMD macht in den letzten 10(?) Jahren alles falsch, was man nur falsch machen kann. Wie blöd muss man sein? Vom Konkurrenten in allen Bereichen zum Nischenprodukt in allen Bereichen.
 
F_GXdx schrieb:
Ja, vielen Dank für die Wortklauberei ;)

Vielleicht stimmt ihr mir wenigstens zu dass man spätestens bei Bulldozer die Alarmglocken hat läuten hören. AMD hat einfach das Budget für F&E nicht mehr, das sie eigentlich bräuchten, um in der obersten Liga mitzuspielen. Da bleiben nur 2 Optionen: Allianz schmieden oder Geschäftsmodell radikal ändern, sonst bleibt nur noch der unvermeidliche Bankrott.

Das hat nichts mit Wortklauberei zu tuen sondern ist das grundlegende Problem das du übrigens auch bei Intel hast oder warum glaubst du das der 1000€ teure Core i7 5960x hier gegen einen 260€ teuren Core i5-4670K abstinkt?
https://www.computerbase.de/2014-08/intel-core-i7-5820k-5960x-haswell-e-test/5/#diagramm-pc-mark-7
Die zusätzlichen Kerne liegen ganz einfach ungenutzt brach. Der Fisch fängt eben beim Kopf an zu stinken, in dem Fall also die Software.
Es ist ja schon bezeichnend das es bis vor nicht allso langer Zeit gedauert hat bis Spiele erscheinen bei denen man von 4 Kernen auch ernsthaft profitieren kann, obwohl entsprechende Prozessoren seit nunmehr 8-9 Jahren erhältlich sind und es laut Aussagen diverser User auch so unmöglich ist sie ausreichen zu parallelisieren. Eine Aussage die ich bereits seit den ersten Dualcores lese und wo damals die höher taktenden Singlecores in den Himmel gelobt wurden.
Man sieht ja wieviel da wirklich dran ist....

Im übrigen hatte AMD noch nie das gleiche Entwicklungsbudget wie Intel.
 
Maldweister schrieb:
Ich weiß keine genauen Werte, aber sagen wir mal ein Prozessor hat eine Effizienz von 5% dann gehen 95% in Wärme verloren und 5% für die Rechenleistung, also kommen die 5% zur TDP dazu, oder?

Nur wird das in Wärme umgewandelt und nicht in "FPS." Was soll denn das bitte sein: "Rechenleistung?"
In mechanische Energie wird es zumindest nicht umgewandelt. Und leuchten tut die GPU auch nicht.
 
Die einzige Newton'sche, mechanische Arbeit, die geleistet wird, ist das Bewegen von Elektronen im Halbleiter. Ob das jedoch soviel Energie ist, dass man es messen kann? ;)
 
Zurück
Oben