Test Radeon R9 Fury im Test: AMDs kleiner Fiji von Sapphire perfekt interpretiert

Zunächst einmal muss festgestellt werden, dass 1080p für die meisten noch die gespielte Auflösung ist. Natürlich läuft alles auch mit 4k und in 1440p, aber viele wollen dann doch anstatt 50 fps average in 1440p lieber 60 fps minimum in 1080p bei Shootern. Die Welt besteht nicht nur aus Shootern, aber Battlefield und CO werden dann doch von vielen gespielt.

@ 390x vs 980

Der Vergleich von GTX 980 und 390x ist ziemlich gut, aber es muss berücksichtigt werden, dass die 390x am Limit läuft. Sämtliche Overclocking-Tests der 390x auf den gängigsten Review-Seiten laufen doch alle mit vorher von MSI ausgesuchten Karten, die sich auf 1200MHz übertakten lassen. Ob sowas auch für den Endkunden im normalen Handel möglich sein wird, ist von Glück abhängig. Auf der 980 hat man aber grundsätzlich wesentlich mehr Luft nach oben. Berücksichtigt werden muss auch, dass die 390x kein Referenzdesign ist, bei Tests aber immer mit der Referenz 980 verglichen wird. Zwischen 390x und der 980 OC liegen laut CB Test 11%, die 390x kostet ~450€. 450€*1,11 = 499,5€. Den Stromverbrauch lasse ich hier mal komplett außer Acht, weil er mir egal ist. Auch wenn der CB-Test laut einigen hier eher NVIDIA-freundlich ist, liegt die 980 OC dann doch mal mehr, mal weniger vorne. Die 390x schafft es in den meisten Fällen nur aufzuschließen. Manche Titel versagen auf AMD-Karten komplett (CoD). Gleich kommen zwar wieder die Argumente "Es ist ja nur ein Spiel" oder "Wer spielt denn noch COD?", aber bei 450€ möchte ich mich nicht auf 2 Jahre festlegen, dass ich etwas nicht spielen will, weil es nicht optimiert ist. Ich gehe ja auch nicht hin und sage: "Das Spiel ist nicht optimiert auf AMD, deswegen darf ich keinen Spaß daran haben."

Dass nur 10% der Leute ihre Grafikkarte übertakten, kann als Argument nicht gelten. Ich wette, auch nur 10% der Leute können die 8GB auf der 390x tatsächlich gebrauchen. So etwas wie Zukunftssicherheit im Grafikkartenbereich gibt es nicht. Wenn man sich die Benchmarks der 290x Custom-Modelle in Battlefield 4 anguckt und man gerne 60fps minimum hätte, dann kann man absehen, dass die 390x in 2 Jahren (also bei zukünftigen Titeln) so etwas nicht mehr bewerkstelligen kann trotz der 8GB Speicher.

@Topic

Momentan scheint es mir, dass es beim Aufrüsten nur 2 Möglichkeiten gibt. Entweder man spart das Geld und setzt auf Preis/Leistung mit der 390 oder 970 (ich würde die 390 bevorzugen), oder man kauft sich eine 980ti oder FuryX (hier würde ich die 980ti bevorzugen). Die Karten dazwischen (980, 390x und Fury) bieten eine ziemlich schlechte Preis/Leistung. Die Fury mit den !vorläufigen! Preisen ist davon noch die schlechteste Option. Meiner Meinung nach ist die Differenz von allem, was deutlich über 500€ liegt, zur 980ti zu klein, um den Geiz zu rechtfertigen. 390x ist ein alter Chip, den man auch schon so vor 1,5 Jahren hätte haben können und die guten 980OC-Modelle (550€?) und Fury (geschätzt 580€ in vier Wochen) bieten nur 4 GB Speicher.
 
@ampere: In deinem Benchmark sieht man doch das eine 390x gleich schnell/ leicht langsamer als eine 980 OHNE oc ist.. ich weiß nicht wo du da deine Aussagen her nimmst? 390x auf 1920x1080 94,8.. GTX 980 OHNE OC auf 1920x1080 97,2. Auf 2560x1440 herrscht dann Gleichstand.
 
Die R9 290 ist ja aktuell weiterhin keine uninteressante Karte, wenn man bedenkt, dass hier noch die neuen Treiber dazu kommen (die dann etwas der R9 390 nachziehen).
https://geizhals.de/?cat=gra16_512&xf=1440_R9+290

Klar, die Karte hat nur 4GB, aber wenn man bedenkt, dass da die TriX schon um 285 zu haben ist, bekommt man im Vergleich zur 960 oder 285 schon weit aus mehr Performance und so weit ist man von der 970/390 dann auch nicht mehr entfernt, die um 350 Euro doch etwas "teurer" sind.
 
Kreisverkehr schrieb:
Er hat doch völlig Recht. Man kann bei P/L-V. nur den Preis der Karte vergleichen und nicht des Systems. Sonst kann man sich alles schönrechnen.

Und das System selber ist auch ein schlechtes Beispiel, denn hier kann man ne SSD nehmen (Größe und Preis abhängig von den Anforderungen) und trotzdem taugt es nichts, um die Grafikkarte schönzurechnen vom Preis her.
Kommt immer darauf an... man sollte sowohl das P/L-Verhältnis der Komponente (in diesem Fall der Grafikkarte) als auch das P/L-Verhältnis des Gesamtsystems mit in seine Kaufüberlegungen einbeziehen.

Spätestens wenn man z.B. Gaming-Laptops miteinander vergleicht oder das P/L-Verhältnis eines Spiele-PCs mit einer PS4/XBO vergleicht (z.B. "800€-PC mit 290x/970 zwar doppelt so teuer, dafür aber auch doppelt so schnell; 1920x1080 in 60 statt 30 fps bei ähnlichen Qualitäts-Settings"; "1200€-PC mit FuryX/980ti dreimal so teuer, dafür aber auch dreimal so schnell"; 1920x1080 in 90 statt 30 fps bei ähnlichen Qualitäts-Settings"), kommt man um den Vergleich der Gesamtsystem-Kosten nicht mehr herum.
 
Naja, aber da kann man alles rechtfertigen und nach Aufpreis "ach, das spielt jetzt schon keine Rolle mehr" etc. Hab ich ein festes Budget, bin ich gekniffen. Und Konsolen sind per se bei gleicher Leistung 100€ billiger etc. Und dann noch das Betriebssystem?

Ein günstiger Rechner kann auch so lange halten wie ne Konsole, wenn man mal die Details reduziert und bisl "zukunftsorientiert" kauft. also Phenom X4 statt E6600, wenn dann die Spiele nicht mehr mit 2 Threads starten etc.
 
Zotac2012 schrieb:
Sorry, aber die ganz Ahnungslosen, die meinen Sie sind Enthusiasten und dann immer mit diesen Automobilvergleichen argumentieren, die kann man doch nicht ernst nehmen. Und wenn die GTX 970 eine untere Oberklasse ist, dann ist die Fury wie FuryX eine High End GPU aus der Unterklasse. Ach ich vergaß, das man mit nicht mal 30. FPS im Schnitt ansatzweise toll 4K spielen kann. Schön zu lesen, das zumindest bei einigen Usern das AMD Marketing noch zieht. :rolleyes:
Und eines kann ich Dir garantieren, die Furie wie auch FurieX löst bei mir bestimmt einiges aus, aber Neid und Mißgunst sind nicht dabei. Und ich kann Dir versichern, mit meiner Grafikkarte kann ich auch ganz bequem auf 2K zocken und das für deutlich unter 600,00 Euro und ohne eine fiepende WKL.
Und wenn mein Beitrag fiept, geschenkt. Über das Niveau von Deinem Beitrag lass ich mich jetzt hier mal nicht aus, der spricht für sich.

Wenn ich denn vorher schon Automobilvergleiche hier auf CB bemüht hätte, habe ich aber leider nicht ;). Außerdem habe ich mich selber nicht als Enthusiasten bezeichnet, denn dann würde ich sicherlich häufiger und ohne zögern eine Karte wie die Fury von AMD bestellen (wenn Du wüsstest :D ), daher würde ich genaueres Lesen und Analysieren der Beiträge hier vorschlagen, bevor Du vorschnelle Schlüsse ziehst und Dich mit nicht vorhandenen Argumenten selber disqualifizierst (von Niveau brauchen wir bei Deinem vorherigen Beitrag, den ich erstmals kommentiert habe, erst gar nicht zu reden). Die GTX970 und die 390 sind die untere Oberklasse (bzw. der Einstieg in letztere), die 390X und die GTX 980 sind Oberklasse, die Fury untere oder Einstiegs-Enthusiasten-Klasse (es gibt kein nVidia Pendant), die GTX980Ti, Fury X und Titan X sind Enthusiasten-Klasse (dafür aber 2 Karten in der Enthusiasten-Klasse bei nVidia), genau so sieht's aus. Darunter befinden sich noch die GTX960 und 380 Mittelklasse-Karten (die 280X, und evt. die 285, und die GTX760Ti waren obere Mittelklasse, welche in dieser Generation leider von beiden Herstellern nicht ausgefüllt wurde, da es bisher leider keine 380X und GTX960Ti Karten gibt) usw. und je höher die Klasse, desto schlechter ist i.a. das Preis-Leistungs-Verhältnis, seltene Ausnahmen bestätigen die Regel.

Vielleicht wäre es hilfreich, wenn Du Dir noch einmal die Tests hier und von anderen vertrauenswürdigen Seiten anschauen würdest bevor Du so einen Mumpitz propagierst bzgl. der Leistung der Fury, die unter 4K oft nur paar fps von den anderen Enthusiast-Karten entfernt ist (nVidia Vorzeigetitel nicht mit einberechnet), aber dass wäre wohl von einem nVidia Jünger zu viel verlangt; eine Liga in der eine GTX970 mit bekanntlich nur 3.5GB voll angebundenem GDDR5 Speicher nicht mitspielen kann. Die Wahrheit schmerzt manchmal schon und meine vorherige Aussage scheint schon einiges bei Dir ausgelöst zu haben (habe da wohl einen Nerv bei Dir erwischt), sonst würdest Du Dich wohl kaum so getroffen zeigen und Dich dafür rechtfertigen müssen, aber egal.

Wie dem auch sei, da von Deiner Seite keinerlei stichhaltige Argumente sondern leider nur bloße Polemik hervor gebracht wird, macht es m.E. keinen Sinn eine Diskussion mit Dir weiter zu führen, denn dafür bist Du offensichtlich schon zu fest gefahren mit Deiner Meinung und ich hoffe, Du wirst auch weiterhin glücklich mit dieser Einstellung werden.
Ergänzung ()

Lampe93 schrieb:
So etwas wie Zukunftssicherheit im Grafikkartenbereich gibt es nicht. (hier würde ich die 980ti bevorzugen) 390x ist ein alter Chip, den man auch schon so vor 1,5 Jahren hätte haben können und die guten 980OC-Modelle (550€?) und Fury (geschätzt 580€ in vier Wochen) bieten nur 4 GB Speicher.

Ist das nicht ein Widerspruch in Deiner Argumentation? Verstehe mich nicht falsch, auch ich denke auch, dass es keine Zukunftssicherheit im Grafikartenbereich gibt (selbst wenn Kasmopaya das ja mit seiner einzelnen Titan X vermutlich anders sieht ... bei 2x Titan X im SLI könnten wir über relative Zukunftssicherheit reden :) ), insbesondere nicht zu diesem Zeitpunkt (Windows10/DirectX12 vor der Tür, wieviel bringt der 14/16nm FF Prozess in Sachen Leistung, nicht Energieeffizienz (?) ... wenn an sich das bei den Intel CPUs zum Vergleich von Generation zu Generation gemäß Leistungszuwachs in den letzten Jahren anschaut, nicht so wirklich viel, aber die Hoffnung stirbt ja bekanntlich zuletzt). Widerspruch deswegen, weil ich davon ausgehe, dass Du die GTX980Ti für zukunftssicherer hältst aufgrund des Speichers als eine Fury X (nicht das Overclocking Potential als Grund der Empfehlung gegenüber der Fury X, oder sehe ich das falsch?). Werden volle 4GB Speicher so schnell zum Nadelöhr werden und wenn ja, unter welchen Voraussetzungen (1080p, 1200p, 1440p, oder 2160p)?

Generell, je höher die Leistungsklasse, desto schlechter das Preis-Leistungsverhältnis (mit ein paar Ausnahmen, wie eben der 390), und dass sehe ich bei der Fury (nach Preiskorrektur) sicherlich nicht als schlechter (eher besser) an als bei der GTX980Ti und Fury X (von der Titan X brauchen wir erst gar nichts zu reden), denn der Leistungsvorteil letzterer ist im 4K Bereich nicht berauschend, aber dort sollte dieser es sein (den Full HD Bereich interessiert keiner, denn keiner im Full HD Bereich (es sei denn es wird die Auflösung hochskaliert), benötigt ernsthaft eine jetzige Enthusiast-Karte) und bei 1440p scheiden sich die Geister, aber die Fury scheint derzeit durchaus zu reichen und werden dann DirectX12 und neue Treiber von AMD zur Entlastung bei neuen Spielen oder überwiegt der Leistungshunger und es läuft auf eine weitere Belastung hinaus? Wer vermag das momentan schon zu wissen?
 
Zuletzt bearbeitet:
lso die Asus R9 Fury im Test von HWLuxx sieht noch einmal besser aus als diese Sapphire.
Die Asus schlägt sich ganz passabel, hier die Fakten der Effizienz:
http://www.techpowerup.com/reviews/ASUS/R9_Fury_Strix/32.html

Teils auf Augenhöhe, teils immer noch 2 stellig entfernt. Wären jetzt 8GB Vram unterwegs, wäre der "King of the Hill" Titan Killer gar nicht mal so weit weg. HBM 1.0 ist wirklich bitter für AMD.

dass es keine Zukunftssicherheit im Grafikartenbereich gibt (selbst wenn Kasmopaya das ja mit seiner einzelnen Titan X vermutlich anders sieht ...
Nicht nur mit meiner Titan die im Vram Soll liegt, ich mache das schon Ewigkeiten so, der Schlüssel sind neue Architekturen im Vollausbau mit massiv Vram zu kombinieren und die Auflösung nicht zwanghaft wahnsinnig hoch zu drehen am Ende des GPU Zyklus: https://www.computerbase.de/forum/threads/eure-grafikkarten-historie.235090/page-107#post-17603646

Seit der Titan ist das ganze Unterfangen ein wenig teurer geworden, aber DX 12 hat mit Sicherheit keinen Einfluss auf die Langlebigkeit der Karte. Es werden wieder wie bei den alten Konsolen DX 9c auch hier die gemeinsame Nenner der neuen Generation ausschlaggebend sein. Und Big Maxwell hat ja bereits DX 12_1, also mehr wie die aktuellen Konsolen. Es gibt 0 Gründe warum eine Titan X nicht so lange durchhalten wird wie eine 580 3GB oder 8800 GTX.

Hätte ich mir heute eine 3-6GB Big Kepler Karte gekauft hätte ich 0 Chance damit 4 Jahre über die Runden zu kommen. Das gilt auch für eine 4GB Fury.
 
Zuletzt bearbeitet:
Also, ich habe seit kurzen die hier Radeon R9 390X Tri-X OC, 8192 MB GDDR5 mit dem MG279Q, 68,58 cm (27 Zoll), 144Hz Widescreen, FreeSync - DP.

Bin voll zufrieden hält alle von mir getestete Spiele ( Metro Redux / Rage usw. ) auf max. über 40 FPS min. in WQHD sehr leise ( leiser als meine alte HD 6970 mit Accelero Xtreme IV ) CSGO spiel ich mit

FreeSync bei 60 Hz / FPS . ( 120 / 144 Hz/FPS macht keine Unterschied wird dann auch etwas lauter und heiser )

Sehr leise / mit etwas Reserven / FreeSync geht auch gut aber meistens nur mit VSync bei EgoShootern ( hier CSS / CSGO ) und in Game mit festen 60 FPS ohne Tearing Laggen sowie Maus ziehen.

Mein Ergebnis: die 390 ist zwar billiger, aber die Leistung wär dann zu schwach, die Fury zu teuer fürs zocken, und mehr Leistung brauch ich bei FreeSync wirklich nicht.

Nur komisch finde ich das ich meine CPU I5 3570 K auf 4,3 und den Speicher mit XMP laufen lassen muss geht so besser ab.

Zum Monitor noch etwas WQHD einfach Super mit Eye Care so kann ich sehr lange da vor sitzen ohne Augen tränen. In Game die Models, Gegenstände und Fahrzeuge sehr Detailreich hatte ich bis jetzt

noch nie gesehen obwohl mein alter war ein 22" HD 1080p.

Die ganze Sache war zwar sehr Teuer aber mann gönnt sich ja sonst ""nix"".
 
borizb schrieb:
Preis und Stromverbrauch sind zu krass, das geht gar nicht.
Bei so wenig Leistungsplus zur 980 ist das jeweils unverhältnismäßig.
Warum hier so viele in völlige Ekstase geraten, ist mir ein Rätsel.
Mit nem schmäleren Fertigungsprozess wäre das ein richtig guter
Chip geworden. Aber bis das soweit ist, holt Nvidia mit dem 16nm
Pascal zum Schlag aus:

http://www.gamestar.de/hardware/news/grafikkarten/3086651/nvidia_pascal.html



Und selbst wenns nur 2 oder 3x so viel ist, ich kann mir im Leben nicht
vorstellen, wie AMD das innerhalb von 12 Monaten schaffen will, vor
allem nicht bei der aktuellen Effizienz. Man stelle sich das mal vor:
Eine doppelte Titan X mit 200 Watt Stromverbrauch. Alter Falter :o
Und hier leuchten die Augen für so eine... Heizung - die fast ein Jahr
älter ist als der direkte Konkurrent.

Ich fürchte, dass die Benchmarks nächstes Jahr sehr einseitig werden.
Da der Tapeout bei TSMC schon durch ist, ist das sogar realistisch bis 2016.

Junge junge...immer wenn ich so einen Käse lese, kommt mir ja fast die :kotz: hoch
Preis und Stromverbrauch sind also voll krass? Ja zeig mal wo kann man die Karte denn kaufen, sie ist doch noch nicht einmal gelistet, wieso reiten die bekannten Nvidia Trolle ständig auf dem Preis herum?
Diese Sapphire hat offensichtlich zu viel Spannung, die Asus Fury Strix zieht ganze 40W weniger als die Fury X, bei höchstens 10% weniger Leistung. Und die Fury X benötigt wiederum nicht mehr Energie als eine 290X/390X. D.h. zumindest die Asus Fury ist deutlich, in Far Cry 4 zB 25% schneller als eine 290X,

75668.png

und verbraucht dabei deutlich weniger Energie. So viel zur Heizung. Ich finde unsachliche Kommentare wie dieser sollten direkt gelöscht werden und am besten einen entsprechen Hinweis erhalten, damit vor allem die grünen Trolle, die hier in jedem AMD Artikel solchen Mist über AMD erzählen, sich endlich mal ein wenig mäßigen.

Achso und süß, dass du Gamestar verlinkst, das nächste Mal vllt direkt Computerbild? Und dass du Huangs "Leistungsprognosen" glaubst... :lol:
Wenn wir schon bei der theoretischen Leistung pro Watt sind, guck dir mal die erste Seite in diesem Test hier an.
Fury X 8601 GFLOPs bei 275W TDP, 980ti @1200 MHz 6770 GFLOPs bei 250W. Wenn auch Nvidia nächstes Jahr mixed precision Shader einsetzt, kannste ne doppelte Titan X bei 200W aber sowas von vergessen..
 
Erkläre uns doch bitte mal, wieso der Stromverbrauch bei einer Mixed-Precision Architektur steigen sollte, wenn die selben FP32 Recheneinheiten verwendet werden. :freak:

Wobei, lass es. Das ist eine genauso intelligenzlose Behauptung wie die Aussage, Maxwell wäre nur deswegen so Effizient, weil die DP-Einheiten entfernt worden wären - also die dedizierten Transistoren, die schon bei Kepler entweder nicht vorhanden waren oder in Spielen nie zum Einsatz kamen.
 
Und wie soll die Effizienz durch Mixed-Precision steigen?

Zumal, wenn ich hier schon wieder von Pascal lese wird mir übel. Klar, AMD arbeitet ja auch jetzt erst seit dem Fiji draußen ist am Nachfolger, Nvidia gefühlt die letzen 10 Jahre. Nur Pascal wird durch 16nm effizienter, AMD hingegen wird mehr Strom brauchen. Bei Pascal wird HBM der Wahnsinn, bei AMD schlecht, sieht man ja bereits :rolleyes:.

Wenns so weiter geht, wird GloFo mMn TSMC bald überholen was Fertigungsverfahren angeht. Und wen dem so ist, ist hier AMD besser dran. Mal muss sich das nur mal überlegen, sollte es bei TSMC bei 16nm Probleme geben, was Yield betrifft, oder generell bezüglich Güte der Chips, verliert man hier vermutlich gleich mal 20-30% Perf/W.
Zudem wurde bislang nur angekündigt, das GP100 sein Tapeout mit HBM hatte. GP100 wird man vor Q3/2016 nicht im Endkundenmarkt sehen. Keiner weiß, ob GP104 mit HBM kommt.
 
Die Effizienz steigt, weil man doppelt soviele Operationen mit dem selben Verbrauch ausführen kann.
 
Zuletzt bearbeitet:
Sontin schrieb:
Die Effizienz steigt, weil man doppelte soviele Operationen mit dem selben Verbrauch ausführen kann.

haha, selten sowas geiles gelesen. ich glaub dein pascal wird sogar strom produzieren bei doppelter leistung :evillol:

und du glaubst also das mehr einheiten nicht mehr aus der dose saugen? die einheiten werden dann mit luft und liebe betrieben.

gruß
 
@r4yn3: Ich weiß ja nicht, aber objetiv betrachtet müsste man sich eigentlich fragen: Warum verbraucht AMD mit dem stromsparenden HBM Speicher ungefähr soviel wie eine vergleichbare NVidia mit DDR-Speicher?

Gerade wegen dem HBM Speicher hat man sich doch ein gutes Stück weniger Stromverbrauch erhofft. Das zeigt doch relativ deutlich das AMD zur Zeit nicht wirklich von hohen Stromverbrauch runterkommt, selbst mit stromsparenden Neuentwicklungen! Das ist eigentlich das was mir Sorgen bereitet..
 
Das mit dem Stromverbrauch hängt meiner Meinung nach auch mit dem DP/SP-Verhältnis zusammen! Das Verhältnis ist ja gesunken, daher verbraucht fiji auch weniger, zusammen mit anderen maßnahmen die amd gemacht hat. weshalb nvidia noch weniger verbraucht, dort ist das DP/SP-Verhältnis noch deutlich kleiner. Daher wird der Pascal vielleicht auch nicht mehr so wenig verbrauchen wie sich hier einige erhoffen da dort soweit ich weiß das DP/SP-Verhältnis auf fiji niveau liegen soll. falls ich das so richtig im kopf habe.

gruß
 
Man tut ja gerade so, als wäre HBM der heilige Gral des Stromsparens. Er bietet mehr GBs/W, leider läuft der Speicher bei den Furys ja nicht mit vollem Takt, was schonmal Potential verschenkt.
Zudem, der Speicher selbst ist wesentlich effizienter, aber absolut gesehen bei einer Grafikkarte immer noch ein kleiner Teil was Stromverbrauch angeht.

Angenommen 4GB GDDR5 benötigen 50W, braucht man vllt mit 4GB HBM 30W. Dadurch das er mehr Bandbreite hat, ergibt das gleich mal massiv bessere Effizienz.
Aber das was der HBM Speicher spart, legte man beim Chip oben drau (und noch ein bisschen mehr)

Klar, man hatte sich mehr erhofft. Kam halt nicht so.

Man tut ebenso, als wäre Fiji rein von der Technik her etwas vollkommen neues. Angesichts von GCN1.2, sollte aber klar sein, dass die Technik nicht neu ist.
Einzig die Implementierung von HBM...und dass muss Nvidia mit Pascal erst noch bewerkstelligen.
 
Halten wir also fest:
GM204 ist nur deswegen fast doppelt so effizient wie GK104, weil das SP/DP Verhältnis weiterhin bei 1/32 (jaja, es ist 1/24 bei GK104, da es 8 DP Einheiten pro Cluster sind. Dafür hat GM204 die gleiche Anzahl, da doppelte soviele Cluster bei halbierter Anzahl an DP) geblieben ist.
GM200 ist dagegen nur 60% effizienter als GK110, weil das SP/DP Verhältnis von 1/3 auf 1/32 gesunken ist.

Mir wäre es peinlich, solchen Quatsch zu schreiben. Aber andere Menschen haben auch eine wesentlich geringere Peinlichkeitsgrenze.
 
Zuletzt bearbeitet:
Halten wir also fest, du weißt nicht ob der Umstieg auf Mixed Precision die Effizienz erhöht.
 
Zurück
Oben