News AMD: Radeon RX 480 mit 36 CUs kommt am 29. Juni für 199$

EchoeZ schrieb:
STOP! Toms Hardware(de) hat garnichts zu Zen in der Neo gemeldet.
ICH habe in den Kommentaren nur gefragt, welche CPU denn zur 480 verbaut wird, und vage auf Zen spekuliert ;)

Wie gesagt... Alles andere als ein sehr optimierter Bristol Ridge wird's nicht sein...
Zen's Embed-APU kommen nach den Mobilen und diese nach Server Zen's...

Der Zeitrahmen der Neo passt nicht dazu...
Nintendo-NX oder die nächste Xbox (sofern die beiden auf ~März '17 fallen) dürften dann auf Zen basieren...
Siehe: http://www.digitimes.com/news/a20160530PD201.html
 
Zuletzt bearbeitet:
Sunjy Kamikaze schrieb:
Was meinst du? Eine maximal überteuerte Karte die in ganz anderen Regionen verkauft wird als eine 480 von AMD? Ich würde mal schätzen das die 480 Weltweit mehr als 500x mehr als die 1080 gekauft wird. Sogut wie niemand kauft sich Grafikkarten für 700Euro plus. Die mehrheit gibt 150-300 Euro aus. Nur hier in einem Hardwarenerd Forum is der anteil größer.. das is aber kein verlgeich zum Markt.

Das stimmt so nicht !
Schau mal in bekannten Shops was jetzt schon an High End Verkauft wird !
Wer Gamer ist kauft GKs eher in der ab 400€ Preisregion
Für viele ist das schnellste das was her muss
Ich persönlich fand die 970GTX gut...bis die VRam Verarsche bekannt wurde !

Das was AMD bis jetzt so abgeliefert hat ..nun ja..
Fury X war ganz OK ...aber eben zu wenig Vram für High End !

Ich hoffe immer noch auf einen richtigen Kracher von AMD ..wie damals mit der 9700Pro
 
Zuletzt bearbeitet:
Aber die meisten sind eben KEINE Gamer, und wollen es auch nicht sein!
Ob man nun videospiele spielt hat mit "Gamer"-sein so rein garnichts am hut. ;)
 
Berserkervmax schrieb:
Das stimmt so nicht !
Schau mal in bekannten Shops was jetzt schon an High End Verkauft wird !
Wer Gamer ist kauft GKs eher in der ab 400€ Preisregion
Für viele ist das schnellste das was her muss
Ich persönlich fand die 970GTX gut...bis die VRam Verarsche bekannt wurde !

Das was AMD bis jetzt so abgeliefert hat ..nun ja..
Fury X war ganz OK ...aber eben zu wenig Vram für High End !

10% weltweiter Marktanteil sind also mehr als 80% Massen und OEM markt? Tolle Rechnung
 
forumuser05 schrieb:
Zur TDP ist es schon richtig, dass nicht die ganze Zeit 180W von der Karte verbraucht werden, das ist bei AMD so, bei nVidia auch ...

Mit der Performance bei DX12 stimmt das schon, sehe ich ja auch so, dass AMD da deutlich mehr von profitiert und das ist ja an sich auch gut, schließlich ist die Rohleistung der bei AMD auch deutlich höher, deshalb war es nur eine Frage der Zeit, wann sie Kapital daraus schließen können.

Denn wenn man zB die von dir erwähnte Radeon Pro Duo anguckt, hat sie mächtige 16384 GFLOPS Rohleistung, das ist mal eben das Doppelte! von der GTX 1080 (8228 GFLOPS)


Ok.. was ich vergaß, und das war vor längerer Zeit mal meine Vermutung, daß AMD für die Ermittlung der TDP-Klasse zu einem Chip bisher auf die durchschnittliche Verlustleistung gesetzt hat. So wäre auch erklärbar, warum die Referenzkühler so eine Fäkalmasse waren. Die Boardpatner haben sich dann der maximalen Verluste angenommen und bessere Kühler verbaut und Voila, weniger Verbrauch, mehr fps und leiser..von allem etwas. Sapphire Nitro 290/390 ftw , quasi wie immer, auch aktuell bei Nvidias 1080.
ICh habs zwar nur grob überschlagen, aber wenn die 50W max beim Battlefront Benchmark von Polaris 11 stimmen, und hier 150W pro Polaris 10 als TDP angegeben sind, meine ich das AMD nun selbst bei der Ermittlung der TDP von maximalen Werten ausgeht.
Ich tippe darauf, daß sich die W/fps Differenz wie sie bisher zwischen AMD und Nvidia klaffte mit Plaris nahezu geschlossen wird.
Ich fange aber wieder an zu spekulieren, daß mag ich eigentlich nicht. Ich sehe nur die Tendenz, wie bei der DX11/12 Geschichte.


Die ProDuo ist jedoch für Gamer uninteressant, es sei denn Du willst wirklich behaupten 'Ich habe die schnellste Graka der Welt im PC' unabhängig von Stromaufnahme, Ansschaffungspreis oder VRAM, der bei 4k in machen (wenigen) Fällen limitiert oder die Tatsache das da ein Bauteil mehr auf der Karte gelötet ist! :D

Die ProDuo ist der King, aber maximale Leistung scheint Enthusiasten nicht mehr zu interessieren...
Wenn man die Karte dazu beruflich nutzt, sind alle Gegenargumente obsolet, man hat vollen Zugang zu LiquidVR Werkzeuchs und nebenbei FirePro Treiber. Die Karte ist bei der DP Leistung nicht so flott wie ihre echte FirePro Kollegen, aber in SP für VR Geschichten einfach unglaublich billig! Und nebenher ist sie die schnellste Gamerkarte der Welt. Und leise, und kühl. Und es ist peinlich daß sich die Redaktionen ausser PCGH einen feuchten F--- um die KArte geben, angeblich weils kein Pressesample gab. Dann besorgt man sich eins, wäre nicht das erste mal das HW aus dem Handel gebencht wird. Der Titel für Medien 'Die 4. Macht' ist nicht sooo weit hergeholt.
Btw.. noch bevor eine der neuen Graka käuflich zu haben waren, wer hat da schon fleissig Geld verdient, dank uns?!? ;)
Ergänzung ()

Berserkervmax schrieb:
Das stimmt so nicht !
Schau mal in bekannten Shops was jetzt schon an High End Verkauft wird !
Wer Gamer ist kauft GKs eher in der ab 400€ Preisregion
Für viele ist das schnellste das was her muss
Ich persönlich fand die 970GTX gut...bis die VRam Verarsche bekannt wurde !

Das was AMD bis jetzt so abgeliefert hat ..nun ja..
Fury X war ganz OK ...aber eben zu wenig Vram für High End !

Ich hoffe immer noch auf einen richtigen Kracher von AMD ..wie damals mit der 9700Pro

Scheinbar passiert das gerade mit der RX480.
 
Was hat Gamer immer mit Hardware zu tuhen?
Genauso was *Casual* mit Games zu tuhen hat.

Nämlich nix.


Oder ist man nur nen Gamer mit ner 1080TI oder ein Pro wenn man 10H am Tag zockt?

Das hat sich ziemlich in den Köpfen fest gesetzt....

Freu mich jedenfalls auf die 480 die wandert auf jedenfall bei mir rein.
Die 7950 hat dann paar Jahre gute dienste geleistet beim Surfen:P
 
Zuletzt bearbeitet:
-Ps-Y-cO- schrieb:
Wie gesagt... Alles andere als ein sehr optimierter Bristol Ridge wird's nicht sein...
Zen's Embed-APU kommen nach den Mobilen und diese nach Server Zen's...

Der Zeitrahmen der Neo passt nicht dazu...
Nintendo-NX oder die nächste Xbox (sofern die beiden auf ~März '17 fallen) dürften dann auf Zen basieren...
Siehe: http://www.digitimes.com/news/a20160530PD201.html


AMD will ja mit den Modulen flexibel sein, und Polaris GPUs werden offensichtlich schon produziert. Lisa Su's Hinweis am Ende der Zen-Präsentation, da eben diese Präsentation vollständig auf einem Zen System erstellt und aifaik ausgeführt wurde, lässt mich vermuten, daß da schon fertige Dinger vom Band laufen. Warum also nicht Sony Exclusiv als Zen-Starter vorn Karren spannen?
GloFo wird ja auch nicht alle zum gleichen Zeitpunkt bedienen können, vielleicht war Sony nur der erste, der gefragt hat?
Egal eigentlich, ob SoC oder beides diskret. Ist aber wieder zu glaskugelig. Ein anderer vermutete verbesserte Jaguarkerne, kann auch sein...
 
AMD befindet sich mit Zen noch in der Validierung... das ist ein Haufen Arbeit und die Zeit sollen sie sich auch nehmen. Keine Lust auf TLG-Bug 2.0 - Wobei es bei den CPUs haufenweise Bugs gibt die man so gar nicht merkt und erst nach einiger Zeit, während sie bereits auf dem Markt sind, festgestellt werden.
Ist meiner Auffassung nach auch der Grund, wieso zuerst der Desktop. Server Markt ist nämlich weitaus wichtiger, wo Bugs nicht so toll sind, auf dem Desktop aber nicht der Rede Wert sind.
 
Zuletzt bearbeitet:
Hodges schrieb:
würde mich auch intreasieren, hab heute fallout 4 gekauft und es ist quasi unspielbar mit meiner hd 6870...ist ende juni weltweiter release?

Du Armer, halte durch, Fallout 4 hat mir viele schöne Stunden bereitet und wird mir definitiv wieder schöne Stunden bescheren.

Hab heut erst wieder gelesen dass die ja noch VLIW Shader hat und nur 1 gig RAM hat. Da kannst du mit aufrüsten nur profitieren, egal für was du dich dann im Endeffekt entscheiden wirst.

Viel Spaß noch mit Fallout
 
EchoeZ schrieb:
ICh habs zwar nur grob überschlagen, aber wenn die 50W max beim Battlefront Benchmark von Polaris 11 stimmen, und hier 150W pro Polaris 10 als TDP angegeben sind, meine ich das AMD nun selbst bei der Ermittlung der TDP von maximalen Werten ausgeht.
Ich tippe darauf, daß sich die W/fps Differenz wie sie bisher zwischen AMD und Nvidia klaffte mit Plaris nahezu geschlossen wird.
Ich fange aber wieder an zu spekulieren, daß mag ich eigentlich nicht. Ich sehe nur die Tendenz, wie bei der DX11/12 Geschichte.
bzgl. ProDuo stimme ich dir voll zu, solche Karten und wie ich finde fast alle DUAL-GPU-Karten, sind vor allem da, um sich wieder an die Spitze des Feldes zu setzen...

bzgl. der TDP bei Polaris 10 und 11 müssen wir wirklich abwarten, wie es sich dann wirklich in neutralen Systemen von den sämtlichen Fachmagazinen und dann eben wie ich es bisher gemacht habe vor allem im Vergleich zu Karten mit einer ähnlichen TDP-Angabe verhält ... Ich hatte ja bisher nur die bisher vorhandenen Karten betrachtet/ausgewertet und da passt es generations-, prozess- und herstellerübergreifend sehr gut, dass man das Verhältnis der theoretischen TDP-Angaben zueinander mehr oder weniger 1:1 mit dem Verhältnis der gleichen Karten beim Verbrauch während verschiedener Spiele übernehmen kann ... ala 10W mehr TDP Angabe auch etwa 10W mehr Verbrauch beim spielen...
schauen wir mal, was dann die ersten richtigen Tests zeigen, ich bin auf jeden Fall gespannt

zum Thema W/fps denke ich auch, dass AMD auf jeden Fall mächtig aufholen kann, weil sie dank DX12 wirklich besser mit ihren hohen Shaderzahlen umgehen können (denn die Rohleistung ist ja tendenziell eher höher, als gleichpreisige nVidia-Karten) und außerdem dank dem neuen Herstellungsprozess den Verbrauch deutlich senken können ...

ich klink mich hier mal aus, die geteaserten Informationen machen auf jeden Fall Lust auf mehr, vor allem hoffe ich noch auf eine RX 480X etwas oberhalb der hier gezeigten Karte ... aber in einem Monatg bei der Veröffentlichung wissen wir ja dann hoffentlich mehr ;)
 
Zuletzt bearbeitet:
forumuser05 schrieb:
Wirklich? Wenn man schon mit Fanboy-Vorwürfen kommt, dann sollte man doch wenigstens irgendwelche nachvollziehbaren Gegenargumente haben und sich nicht selbst wie ein Fanboy auf den Schlips getreten fühlen...
ich ziehe doch gar nicht AMD durch den Kakao, ich weise nur darauf hin, dass egal welche Architektur die von mir verglichenen Karten haben (ja auch die deutlich neurere GTX 1080 mit neuer Prozessarchitektur) eben bei Spielen laut Computerbase-Test auch in etwas den Wert beim Gesamtsystem mehr verbrauchen, den sich auch bei dem theoretischen Wert TDP angegeben haben. Dass sie nicht dauerhaft 150W verbrauchen, sollte jedem klar sein, das gilt dann aber beim Spielen für AMD und nVidia ... und natürlich hat Polaris eine neue Architektur, Pascal aber auch und trotzdem passt die Differenz der TDP-Angabe zur Differenz des Real-Verbrauchs bei spielen ... wenn also die mit 150W angegebene Polaris tatsächlich deutlich weniger als die mit 150W angegebene GTX 1070 oder die mit 145W angegebene GTX 970 verbraucht, dann ziehe ich meinen Hut vor AMD, ansonsten passt sie einfach ganz normal in das Vergleichsschema ... und davon ab, die 150W Angabe gefällt mir auch viel besser, als bisherige Werte der Vorgängergeneration ...
Wie gesagt, bisher hat hier niemand gezeigt (egal mit welcher Architektur, alt ist Nano auch nicht), dass "nur" die AMD-Angaben deutlich niedriger ausfallen, denn dann müsste ja eine 150W TDP AMD Karte beim spielen auch deutlich weniger verbrauchen, als eine 150W TDP nVidia-Karte, ist aber laut CB-Test nicht der Fall ... Mir ist letztendlich egal, welche Karte wie gut ist, aber Konkurrenz belebt ja das Geschäft, deshalb hoffen wir mal, dass AMD zeitnah etwas vernünftiges in den Regalen hat ... also Füße still halten, warten wir mal Tests ab, das kann ja eh noch dauern ...

Ich habe zurzeit eine Karte von AMD und von nVidia (hab ich aber schon erwähnt!) und bin mit beiden glücklich und meine nächste Ende Juli wird eben jene, die das für mich bessere Angebot bietet und ich werde dann entscheiden, welche es wird ... RX 480X oder GTX 1070 ... also Fanboy nochmal warum genau? Ich sehe eher, dass ich neutral schreibe, aber kritisch hinterfrage, Fanboy heißt eher blind auf traumhafte Aussagen eines Paperlaunches zu vertrauen, ohne wirklich faire und neutrale Tests abzuwarten.
An sich klingt die RX 480 aber interessant, hoffen wir mal, dass sie eben auch nicht nur beim AotS-Test gut dasteht und das vor allem auch in der Single-GPU Version, denn der von reymon verlinkte Test lässt keine 36-37 fps erahnen (http://ashesofthesingularity.com/me...-details/f8832eff-4554-4185-adf3-c04cdb9ab87a).

Aber wie gesagt, abwarten und Kaffee trinken, die Karte ist ja noch lange nicht raus, erst erste neutrale Tests werden sie wirklich gut vergleichen können, ein CF Benchmark beim "Lieblingsspiel" mit "51%" Auslastung ist so verschlüsselt und verklausuliert, dass er eigentlich nur eine Orientierung ist, aber nichts wirklich Vergleichbares ...
Viele Worte...Du wiederholst dich nur, machst Vergleiche zwischen verschiedenen Architekturen und noch nicht mal erschienen und ziehst schlüsse daraus...
Denn Sinn dahinter kennst nur du.
 
Berserkervmax schrieb:
Das stimmt so nicht !
[...]Wer Gamer ist kauft GKs eher in der ab 400€ Preisregion[...]

Das ist (oft behaupteter) Quatsch.

Selbst in der "Gamer"-dominierten Steam Plattform stehen eher budget Karten oben: http://store.steampowered.com/hwsurvey

Die erste >400€ Karte findet sich mit der 980 gerade mal auf Platz 27. Streng genommen gehören noch die HD 79X0er Radeons in ihrer UVP dazu, aber selbst diese finden sich lediglich auf Platz 17, obwohl es mehrere Karten in der Statistik sind - von dem Alter mal ganz zu schweigen.

Edit: Die Radeon "R9" 2XXer werden wohl auch zusammengefasst, aber im Prinzip ändert das an meinem Punkt nichts.
 
Zuletzt bearbeitet:
@forumuser05
Ich glaube, wir haben es schon ein paar Mal gesagt: Ohne die finalen Taktraten, kann auch keine finale TDP genannt werden. Die Karte kommt offenbar nicht mit 75 Watt aus, also benötigt sie einen 6-Pin-Anschluss, über den sie theoretisch bis zu insgesamt 150 Watt ziehen könnte. Aber das ist nur der baulich bedingte Höchstwert. Alles, was wir derzeit wissen können ist, dass die finale TDP unter diesem Wert liegen muss. Deshalb ist es müßig, so viele Worte über die TDP der Karte zu verlieren, und auch Vergleiche mit früheren Karten sind daher wenig zielführend, denn bei diesen Karten wurde die TDP aus dem tatsächlichen Betrieb mit finalen Taktraten abgeleitet, und nicht ein baulich bedingter theoretischer Höchstwert angeben. Aber das ist alles Spekulation. Warten wir auf die finalen Taktraten und die ersten Tests.

P.S.: Ich gehe aber auch davon aus, dass die Karte nicht deutlich weniger als 150 Watt verbrauchen wird. Wenn es so wäre, dann hätte man diesen Punkt sicherlich stärker hervor gehoben, und nicht nur "Weniger als 150 Watt!" genannt.
 
@Forumuser05
Ahhr, ich habs selber verbockt richtig zu erklären.
Mal ganz unabhängig von Herstellern, Funktion des Gerätes etc.

Ein Baustellenstrahler mit 1000W, hat auch eine dauerhafte Maximalleistung von 1000W, d.h. er verbaucht in einer Stunde 1000Wh oder 1kWh.
Ein Heizlüfter mit 1000W, zieht 1000W wenn er läuft, wenn nicht natürlich nicht. Er schaltet sich pro Stunde mehrmals an und aus, sagen wir 30min Betriebszeit pro Stunde, dann hat er 1000W x 0.5 Stunden = 500Wh verbraucht.
Eine Graka ist mit 300W angegeben, ihre Last schwankt je nachdem wieviel sie arbeiten muss im Mili-, oder gar Nanosekunden-Takt. Selbst Igor mit seinen 500MHz Oszilloskopen kann bei 1000MHz GPU-Takt nur jeden zweiten Takt der GPU erfassen. Aber ich weiss, dass das am Ende nur noch Haarspalterei ist. Aber nach einer extrem fordernden Benchmarksequenz von 60sec kann man allenfalls bestimmen, wieviel die GPU in diesen 60s an Wh verbraucht hat. Ein ganzer Level eines Spiels fordert dauerhafte Maximallast ala Stresstest?.. das gabs noch nie.
Also wird niemals eine Grafikkarte mit 300W TDP tatsächlich 0.3kWh in einer Stunde Spielzeit verbrauchen. Nvidia nicht, und AMD auch nicht.
Was die maximale Leistungsaufnahme aussagt, hat keinen Stellenwert für den tatsächlichen Verbrauch in kWh.

Will man nun wirklich eine realitische VERBRAUCHSAUSSAGE treffen, muss man wenigsten einen Level pro Spiel als Benchmarksequenz laufen lassen. Die ermittelte durchschnittliche Leistungsaufnahme multipliziert mit der Zeit und wird haben einen halbwegs echten Verbrauchwert, wo man sagen kann, die XXX XXX verbraucht pro Stunde Battlefront z.B. 0.2kWh, hat eine TDP von 300W und maximale Lastpeaks von 400W.
Die Graka YYY YYY verbraucht in dieser Stunde 0.22kWh (also mehr), hat aber auch eine TDP von 300W und maximale Lastpeaks von nur 380W.
Da würdest Du meinen (was nach deinem Verständnis natürlich nicht falsch ist), daß YYY YYY die bessere Karte sei, dabei verbraucht sie 0.05kWh mehr, also in 20h Spielzeit pro Woche 1kWh mehr als die andere, bei 25Cent/kWh im Jahr dann grob 12,50. Also zahlst Du 12.50€ mehr, weil Du von Maximalwerte und TDPs ausgingst und deswegen die 'falsche' Karte gekauft hast.


Ich will mit Sicherheit nicht behaupten, AMD würde jetzt weniger verbrauchen als Nvidia, aber:
Mit KEINER der max Peak Angaben hier auf CB lässt sich der tatsächliche Verbrauch ableiten. So einfach ist das zu betrachten, und so weiss ich das seit dem Physikunterricht in der 8 Klasse. Statische und dynamische Verbraucher.


PS: Es liegt natürlich nahe, daß AMD Karten aufgrund der höheren Peaklast auch durchschnittlich mehr verbrauchen, was auch der Fall ist. Es ist aber weitaus weniger Dramatisch als wie es in den Foren immer dargestellt wird. Stichwort Atomkraftwerk und Heizplatte etc

Sry für Rechtschreibfehler, bin nicht besonders nüchtern :D

Ergänzung ()

sverebom schrieb:
P.S.: Ich gehe aber auch davon aus, dass die Karte nicht deutlich weniger als 150 Watt verbrauchen wird. Wenn es so wäre, dann hätte man diesen Punkt sicherlich stärker hervor gehoben, und nicht nur "Weniger als 150 Watt!" genannt.

Siehe Text an Forumuser bzgl. verbrauchen. Das gilt aber für alle Grafikkarten.
Im internationalen Markt ist der Verbrauch (in Wh) weniger wichtig. Es resultiert nur daraus, moglichst leise, effiziente und trotzdem starke Karten zu bauen. Die Abwärme die aus dem tatsächlichen Verbrauch ist demnach auch geringer als es die maxpeak Werte vermuten lassen.
Dauraus folgt dann wieder die Annahme, AMD habe sich bei der Ermittlung der TDP für die alten R9 Referenzkühler nach dem durchschnittlichen Verbrauch gerichtet hat, weßhalb dieser bei Vollast impotent wurde und anfing zu kreischen. Eigentlich sind die Fiji-Referenzkühler schon mehr als ein Fingerzeig, daß sich AMD diesbezüglich umgestellt hat. Da wird die maximale Leistungsaufnahme mittels PT geregelt, und die Kühler sind in allen Lebenslagen unkritisch. Nano z.B: 175W TDP, 180W max. Der Kühler packt das locker. Der tatsächliche Verbrauch liegt ganz klar deutlich darunter.
Im Fazit stimmen wir alle mittlerweile überein. Warten wir die Tests ab.
 
Zuletzt bearbeitet:
EchoeZ

Dazu müsste noch HisN's FAQ: Performance-Probleme. Es Ruckelt. FPS brechen ein. Framedrops. Lags.
ergänzt werden!

bf3_2012_07_01_17_43_ckxom.jpg
Sie GPU-Auslastung in % links oben!
 
Berserkervmax schrieb:
Das stimmt so nicht !
Schau mal in bekannten Shops was jetzt schon an High End Verkauft wird !
Wer Gamer ist kauft GKs eher in der ab 400€ Preisregion
Für viele ist das schnellste das was her muss
Ich persönlich fand die 970GTX gut...bis die VRam Verarsche bekannt wurde !

Das was AMD bis jetzt so abgeliefert hat ..nun ja..
Fury X war ganz OK ...aber eben zu wenig Vram für High End !

Ich hoffe immer noch auf einen richtigen Kracher von AMD ..wie damals mit der 9700Pro

OEM.PNG

http://geizhals.de/?cat=sysdiv&xf=452_GeForce+GT+700+Serie~452_GeForce+GT+900+Serie~452_Radeon+R9+Serie#xf_top

Wo sind da also nun die DICKEN 400€+ Grafikkarten?

Was du erzählst ist humbuck =) das glaub mal ^^

nur weil 1700 Leute hier im Forum GPUS für größer als 300€ kaufen, muss das nicht für den Rest der Welt gelten!

Im Aldi kommt ein Neuer Rechner mit DICKEM i7, 256GB SSD, 8GB DDR(1333er!!!) Ram und ner GT 750 oder R9 255 zum Verkauf!
Papa denkt sich Yea! Perfekt für meinen Sohn der sich schon lange einen Gamer-PC Wünscht!

...
400€ Preisregion ist fernab der Realität!

Frag mal Microsoft wie oft sich wohl Windows 7 oder Windows 8/8.1 oder Windows 10
HOME-EDITION Verkauft hat ;)
7x darfst du raten mit WELCHEN GPU's diese Ausgestattet sind!
 
Zuletzt bearbeitet:
Zurück
Oben