• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Starfield: Technik-Partnerschaft mit AMD könnte DLSS blockieren

Ich warte dann auf den Aufschrei und die wütenden Userproteste, wenn sich ein Entwickler entscheidet kein DirectX anzubieten sondern „nur“ Vulcan…
 
  • Gefällt mir
Reaktionen: graysson, iron_monkey und Iscaran
Ich muss nachher echt Mal schauen welche prominenten Grafik Features Nvidia eingeführt hat und welche AMD und schritt zuhalten mehr oder weniger gut kopiert hat

Das Nvidia für viele ihrer Features eigene Hardware benutzt hatte doch auch den Vorteil das damit spiele besser gelaufen sind fps technisch

Wenn AMD jetzt mit was vergleichbaren rumkommen würde tät mich das gerne dazu verleiten AMD zu kaufen
 
  • Gefällt mir
Reaktionen: xXBobbyXx
Eagle-PsyX- schrieb:
G-Sync beruht im Gegensatz zu AdaptivSync und FreeSync auf einen proprietären Chip (G-Sync Modul) der seitens des Monitors verbaut sein muss (damals für ~250 € Aufpreis {sic!}). Bildausgabe und Bildfrequenz zu synchronisieren ist kein Hexenwerk, wie sich durch die offenen Standards einfach zeigen lässt. Der hier "G-Sync"-im-Treiber-Aspekt ist vernachlässigbar und trivial. Das IST nicht die Idee von G-Sync!

Das ist sehr abgekürzt, um nVidia schlecht dastehen zu lassen. Anfangs war der Aufpreis für G-Sync (das erste Modul) wesentlich moderater und lag eher bei €100 -€150 Aufpreis pro Monitor. Dafür bekam man damals aber auch die mit weitem Abstand beste Sync-Technologie (hohe Sync-Range ab 30fps/Hz aufwärts und niedrige Latenzen).

Erst G-Sync Ultimate hat dank des neueren Hardware-Moduls von Altera (Intel Tochter) den Preis in die Höhe getrieben und viele Monitore mit diesem Modul kommen leider nicht ohne Lüfter aus.

Mir persönlich reicht inzwischen G-Sync compatible, aber früher waren Monitore mit dem ersten G-Sync Modul eine feine Sache und sie waren FreeSync weit überlegen (Sync-Range, Bildstabilität, Latenzen), was in zahlreichen objektiven Reviews im Netz bestätigt wurde.

Eagle-PsyX- schrieb:
NVIDIA nutzt den Term aus Marketing-Gründen offenbar noch, anstatt einfach AdaptivSync oder FreeSync zu sagen... "G-Sync kompatibel" ist genauso ein lari fari markeing Framing. Es ist kein G-Sync. Eher ist NVIDIA AdaptivSync kompatibel. Anders verstehe ich den Fingerzeig auf den Treiber hier mehrfach auch nicht. Intel nutzt auch AdaptivSync.

Aha, bei nVidia ist es "lari fari markeing" [sic!], aber bei AMD ist das natürlich alles ganz anders ;) .
Sowohl AMD, als auch nVidia, verwenden beide den VESA-Standard AdaptiveSync. Beim einen heißt das seit Anbeginn der Zeit "FreeSync" und beim anderen nun "G-Sync compatible". Beides sind hauseigene Markennamen für dieselbe Technologie, aber bei nVidia ist das natürlich etwas ganz Schlimmes. Schon klar :lol: .
 
  • Gefällt mir
Reaktionen: xXBobbyXx, Bachi82 und Celinna
R O G E R schrieb:
FSR läuft überall, warum wieder was properitäres?

Siehe Gsync damit ist Nvidia auch gescheitert.
Gescheitert? Ohne NVIDIA hätten wir die Technik im Main Consumer Markt nicht mal, oder viel später. Weil es überhaupt NVIDIA gegeben hat, die das als erstes gemacht haben gab es dann überhaupt Freesync. Nvidia war hier nichts geringeres als Pionier. AMD hat dann einfach nachgezogen und durch das Verfügbarmachen für alle versucht eben seinen eigenen Markt zu erschließen. Das gleiche hast du jetzt mit Raytracing, auch hier war es NVIDIA die als erstes gepushed haben. AMD zieht nach. NVIDIA war schon seit Anbeginn der Risk-Taker.

Hab kein Problem damit wenn Leute NVIDIA haten wegen der Preispolitik, aber eines kann man denen nicht vorwerfen, nämlich nicht innovativ zu sein.
Was ist der nächste Vorteil, wo ist mein nächster edge - das sind Fragen die gute Unternehmen ausmachen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77, xXBobbyXx, Bachi82 und 2 andere
th3o schrieb:
Gescheitert? Ohne NVIDIA hätten wir die Technik im Main Consumer Markt nicht mal, oder viel später. Weil es überhaupt NVIDIA gegeben hat, die das als erstes gemacht haben gab es dann überhaupt Freesync. Nvidia war hier nichts geringeres als Pionier. AMD hat dann einfach nachgezogen und durch das Verfügbarmachen für alle versucht eben seinen eigenen Markt zu erschließen. Das gleiche hast du jetzt mit Raytracing, auch hier war es NVIDIA die als erstes gepushed haben. AMD zieht nach. NVIDIA war schon seit Anbeginn der Risk-Taker.

Hab kein Problem damit wenn Leute NVIDIA haten wegen der Preispolitik, aber eines kann man denen nicht vorwerfen, nämlich nicht innovativ zu sein.

Ne das ist meines Wissens nicht war. Zu Anfang musste man dies runterladen und installieren um in diesen Genuss zu kommen und es war nicht NVidia die das „erfunden“ haben.

Also ich kann auch wunderbar in der Nativen Auflösung spielen und mich interessiert das überhaupt nicht, ob FSR oder DLSS. Wenn es vorhanden ist, schalte ich es an und wenn nicht kommt die Native Auflösung….
 
Mcr-King schrieb:
Dass denke ich nicht ausser hohen VRAM und da werden halt RTX4060/ti und RX7600 scheitern und RTX3060 12GB nicht. 😉
Na ja gut Texturmods und Co ist klar das Speicher gebraucht wird.
Es spricht aber nix gegen DLSS.
 
Irgendwie machen die Folie vom HU es nicht wirklich besser!
FSR1 ist ja praktisch mit 0 Aufwand implementiert, während DLSS und FSR2 Arbeit bedeuten.
Zudem hat der dann bei den AMD Folien noch zwei Early Access Spiele reingepackt.
Wenn man jetzt einfach FSR1 und Early Access rausfiltert, dann verschiebt sich das Verhältnis deutlich... Dadurch bleibt NVIDIA damit immer noch im besseren Licht, aber AMD steht nicht mehr so schlecht wie die Folien versuchen darzustellen.

Aktuelle Karte im PC: RTX2060S
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: graysson, Iscaran, Anon-525334 und eine weitere Person
RogueSix schrieb:
Aha, bei nVidia ist es "lari fari markeing" [sic!], aber bei AMD ist das natürlich alles ganz anders ;) .
Sowohl AMD, als auch nVidia, verwenden beide den VESA-Standard AdaptiveSync. Beim einen heißt das seit Anbeginn der Zeit "FreeSync" und beim anderen nun "G-Sync compatible". Beides sind hauseigene Markennamen für dieselbe Technologie, aber bei nVidia ist das natürlich etwas ganz Schlimmes. Schon klar :lol: .
Nö, ich habe hier AMD nirgendwo gelobt.
Nö, ich habe nie bestritten dass G-Sync überlegen ist. WO steht das bitteschön?
Nö, AdaptivSync ist mit FreeSync frei, nur G-Sync war kein offener Standard.

Ich stelle mich gegen jegliche proprietären Standards/Methoden und da führt nun mal leider NVIDIA ganz weit vorne mit. Entwickler, Hardwarehersteller und Käufer müssen aber am Ende selbst entscheiden. Genauso wenig mache ich hier ein Theater wenn wieder nur ein Spiel DLSS unterstützt. PS: Ich besitze auch NVIDIA-Karten.
 
  • Gefällt mir
Reaktionen: Matthias80, Rockstar85 und Iscaran
cruscz schrieb:
Ich warte dann auf den Aufschrei und die wütenden Userproteste, wenn sich ein Entwickler entscheidet kein DirectX anzubieten sondern „nur“ Vulcan…
Hat, damit dein Vergleich funktioniert, denn die Nutzung von Vulkan konkrete Nachteile im Vergleich zu DirectX für ca die Hälfte der PC-Spieler?


Und zu den generell immer wieder auftauchenden Aussagen wie "Nvidia schließt mit DLSS ja auch einen Großteil der Spieler aus":
Das sind zwei völlig verschiedene Themen. Hier geht es darum, welche Features ein Entwickler in sein Spiel einbaut und damit was die Spieler nutzen können.
Es ist nun mal Fakt das ca die Hälfte der PC Spieler DLSS nutzen könnten, wenn man die anspruchsvolleren neuen Spiele betrachtet wird es sogar deutlich mehr als die Hälfte sein, die eine DLSS-fähige Karte besitzen.
Diese schließt der Entwickler davon aus, DLSS nutzen zu können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xXBobbyXx und Bachi82
cruscz schrieb:
Ich warte dann auf den Aufschrei und die wütenden Userproteste, wenn sich ein Entwickler entscheidet kein DirectX anzubieten sondern „nur“ Vulcan…
Gibt es doch schon x4: Foundations :)
 
  • Gefällt mir
Reaktionen: _Cassini_
Eagle-PsyX- schrieb:
Nö, AdaptivSync ist mit FreeSync frei, nur G-Sync war kein offener Standard.

Wie "nö"? :D

Genau das hat sich ja nun mit G-Sync compatible geändert.

FreeSync = AMD's Markenname für ihren VESA AdaptiveSync Support
G-Sync compatible = nVidia's Markenname für ihren VESA AdaptiveSync Support

Dass G-Sync kein offener Standard war, ist hinlänglich bekannt und hatte ich doch selbst oben geschrieben. Stand heute ist nur G-Sync Ultimate noch proprietär und die wenigen Monitore mit dieser Technologie haben das besagte Altera Modul, welches den Preis in die Höhe treibt.
Ergänzung ()

cruscz schrieb:
... „nur“ Vulcan…

Taxxor schrieb:
... Nutzung von Vulcan

Jungs, nix für ungut, aber die API heißt Vulkan mit "k" wie Karlchen :D .
 
RogueSix schrieb:
Dass G-Sync kein offener Standard war, ist hinlänglich bekannt und hatte ich doch selbst oben geschrieben. Stand heute ist nur G-Sync Ultimate noch proprietär und die wenigen Monitore mit dieser Technologie haben das besagte Altera Modul, welches den Preis in die Höhe treibt.
Gut, dann erkläre ich nach wie vor G-Sync Ultimate mit Altera Modul dem Abklang.
Ist dir diese Formulierung dann gerecht?
 
  • Gefällt mir
Reaktionen: Iscaran und RogueSix
Wenn in einem Nvidia Sponsored Titel DLSS und FSR drin sind, und aufgrund des Marktanteils dann die meisten mit DLSS spielen, kommen wahrscheinlich deutlich weniger Rückmeldungen über Probleme als wenn ein Titel nur FSR unterstützt. Somit wäre FSR Only eigentlich eine Chance, das der offene Standard verbessert wird.
 
  • Gefällt mir
Reaktionen: graysson
Der Unterschied ist..
Nvidia ist es egal wenn FSR oder XeSS integriert ist.

Die begrüssen das sogar und wollen das die Gamer, influenzer und professionelle Hardware Magazine vergleichen und ihnen immer wieder bescheinigen das beste upscaling zu haben.
Bessere Werbung gibt es nicht.

Und sowohl der Erfolg als auch der Qualitätsvergleich gibt ihnen absolut Recht damit.


DLSS balanced ist Qualitätsmässig auf gleichen Niveau wie FSR quality.. bietet aber mehr FPS

Wir vergleichen ja mittlerweile entweder gleiche FPS und unterschiedliche Bildqualität

Oder ähnliche Bildqualität bei bedeudent höheren FPS für DLSS


Wenn einem die Fachpresse immer wieder zum Sieger erklärt braucht man auch nix blocken
Ergänzung ()

HiveTyrant schrieb:
kommen wahrscheinlich deutlich weniger Rückmeldungen über Probleme als wenn ein Titel nur FSR unterstützt. Somit wäre FSR Only eigentlich eine Chance, das der offene Standard verbessert wird.
Sehe ich nicht so. In dem Fall belebt die Konkurrenz das Geschäft und fordert die Entwickler heraus ihre Technologie zu verbessern.

Das was du beschreibst ist nur zum bugfixen gut..
Gäbe es nur FSR würde man ganz schnell auf die Idee kommen das man da nix weiter entwickelt oder verbessert muss..
weil das vorhandene ja ausreichend ist und man keine weiteren Ressourcen und Geld investiert
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xXBobbyXx, Bachi82, Celinna und eine weitere Person
scryed schrieb:
Ich muss nachher echt Mal schauen welche prominenten Grafik Features Nvidia eingeführt hat und welche AMD und schritt zuhalten mehr oder weniger gut kopiert hat

Das Nvidia für viele ihrer Features eigene Hardware benutzt hatte doch auch den Vorteil das damit spiele besser gelaufen sind fps technisch

Wenn AMD jetzt mit was vergleichbaren rumkommen würde tät mich das gerne dazu verleiten AMD zu kaufen
FSR 3.0
 
Neben dem faden Beigeschmack dass sowas hinterlässt würde ich schon gerne die besseren Features meiner Hardware nutzen wollen wenn ich schon auch mehr Geld dafür ausgegeben habe. Alle Techniken anzubieten und den Gamer selbst wählen zu lassen wäre definitiv der richtige Weg und ja als voraussehender Gamer würde ich sowas auch nicht unterstützen und auf das Game verzichten.
 
  • Gefällt mir
Reaktionen: xXBobbyXx und Celinna
  • A sponsert B für ein Produkt von B. Unterstützt also mit Geld und Ressourcen.
  • Spekulation: Es gilt dabei, dass eine Technologie eines Wettbewerbers C von A nicht oder verzögert in das Produkt kommt.

Das ist wie:
BMW sponsort Autohersteller B für ein neues Produkt
Es gilt dabei, dass eine Technologie von Mercedes nicht oder verzögert zu in das Produkt kommt.

Wer würde sich da empören?
 
Die ganze Aufregung ist echt sowas von lächerlich. Warum sollte ich in meiner Werbepartnerschaft, für deren Exklusivität ich eine Menge Geld gezahlt habe, ein Feature des Hauptkonkurrenten zulassen, das nur auf seiner Hardware läuft und eines seiner Kaufargumente ist was auf jeder Box zu sehen ist? Kann mir das einer erklären?
Nach der Logik sollte man bei jeder exklusiven Partnerschaft so ein Theater machen.
 
  • Gefällt mir
Reaktionen: graysson und HierGibtsNichts
Blackfirehawk schrieb:
Die begrüssen das sogar und wollen das die Gamer, influenzer und professionelle Hardware Magazine vergleichen und ihnen immer wieder bescheinigen das beste upscaling zu haben.
Und dann kommt es ab und an vor, dass FSR2 plötzlich durchaus auf Augenhöhe agieren kann und das Bild vom überlegenen DLSS kleine Risse bekommt und man sich die Frage stellen muss: Wird denn bei der Implenentation von FSR2 auch wirklich der selbe Aufwand betrieben, oder nur das nötigste getan, damit die Funktion einfach nur drinnen ist?
Computerbase.de - Diablo 4 Test schrieb:
DLSS 2 und FSR 2 liefern sich in Diablo IV einen engen Zweikampf. Im Quality-Modus sind beide Technologien als gleichwertig zu betrachten. DLSS schneidet im Performance-Modus dann etwas besser ab, was aber Meckern auf hohem Niveau ist. Auch in dem Hack 'n' Slay gilt: Je weniger Pixel vorhanden sind, desto besser schneidet DLSS ab, doch sind die Unterschiede in Diablo IV erstaunlich gering.
Oder solche Titel wie Hogwarts Legacy, wobei ich natürlich auch die Schwachpunkte mit zitiere und markiere. (Soll keiner Behaupten, dass ich diese jetzt absicht ausblende/nicht zitiere!
Computerbase.de - Hogwarts Legacy Test schrieb:
Im Stillstand liefern DLSS 2 und FSR 2 absolut beeindruckende Ergebnisse in Hogwarts Legacy ab. [...] Mit nativer Full-HD-Auflösung fällt die Bildqualität im Vergleich sichtbar zurück. DLSS 2 und FSR 2 im direkten Vergleich zeigen leichte Unterschiede, besser oder schlechter gibt es aber nicht. [...] In Bewegung ist das anders. Hier stellt sich DLSS 2.3 auch in Hogwarts Legacy schlussendlich als der Gewinner heraus, auch wenn FSR 2 gut mithalten. Es gibt sogar Orte, an denen DLSS die Bildstabilität weniger gut als FSR im Griff hat, meistens ist dann aber doch DLSS vorne, vor allem im Performance-Preset. [...] Hogwarts Legacy bietet einige offenbar fiese Oberflächen, die durchweg Flimmern - hier kann FSR 2 dann nicht mehr mithalten.
Wir könnten auch Dead Space anführen - dass dann aber auch zeigt, was passiert, wenn sich Entwickler wohl keine Mühe geben.
Computerbase.de - Dead Space Remake schrieb:
Davon abgesehen ist die Bildstabilität mit allen drei Technologien vergleichbar, im Quality-Modus lässt sich kein Gewinner ausmachen. Bei gleicher Renderauflösung ist das native TAA also unterlegen. Im Performance-Modus hat DLSS dann minimale Vorteile gegenüber FSR.
Als letztes - um noch ein paar Risse in das Bild zu zaubern:
Computerbase.de - God of War schrieb:
Zu einem Großteil geht es im Duell DLSS gegen FSR 2.0 in God of War eng zu: Beide Techniken arbeiten auf einem hohen Niveau. Primär unterscheiden sie sich in Details, die aber durchaus den Unterschied ausmachen können. [...] Anders sieht es dann aber im Performance-Modus aus. Hier schärft DLSS plötzlich deutlich mehr nach als FSR 2.0. Das Ergebnis ist ein sichtbar schärferes Bild von DLSS, das nur minimal an Schärfe gegenüber dem Quality-Modus verliert und damit immer noch vergleichbar scharf zur nativen Auflösung ist. Anders dagegen FSR 2.0 auf „Performance“, das ein gutes Stück an Bildschärfe verliert. [...]
Die Bildschärfe an sich ist zwar positiv bei DLSS zu bemerken, Nvidias Schärfemechanismus erzeugt anders als AMDs CAS aber mehr Artefakte, die vor allem in geringeren Auflösungen als Ultra HD störend sein können. [...]
In Sachen Rekonstruktion machen dann interessanterweise weder DLSS noch FSR 2.0 keinen allzu guten Eindruck, obwohl dies eigentlich deren Stärke ist, was vermutlich daran liegt, dass das spieleigene TAA das schon ganz ordentlich hinbekommt. [...]
DLSS hat bei sehr feinen Details vor allem im Performance-Modus leichte Vorteile gegenüber FSR, die in dem Spiel aber kaum auffallen.[...]
So zieht FSR 2.0 bei Schneeflocken je nach Kontrast einen leichten Ghosting-Effekt hinter sich her, was quasi wie ein Komet aussieht. Zugleich kann DLSS die Schneeflocken anscheinend generell besser erfassen.[...]
[...]Und mit diesem Rauschen hat FSR 2.0 so seine Schwierigkeiten und bleibt schlussendlich dabei erfolglos, es stark zu reduzieren. Das gelingt DLSS in allen Auflösungen und Einstellungen deutlich besser.[...]
DLSS hat allerdings ebenfalls seine Schwierigkeiten. So schmieren die vielen, feinen Äste in dem Spiel gerne mal – je weniger Renderpixel, desto längere Linien ziehen die Äste hinter sich her. Und auch Ghosting ist vertreten, das bei Ästen, aber ebenso bei der Darstellung von Haaren auftreten kann.
Und um das jetzt noch mal klar zu stellen, bevor jemand hier in Schnappatmung verfällt: Ich habe sowohl Postivie als auch negative Aussagen zu FSR2 und auch DLSS hier mit genommen um hier nicht einseitig zu sein.

Allgemein kann man festhalten: DLSS und FSR 2 "Quality" arbeiten beide gut. Die Spanne reicht hier von "quasi gleichwertig" bis "DLSS ist minimal besser". Auffällig wird die Stärke von DLSS dann bei Performance, wobei hier dann auch eher "leicht besser" die Aussage ist.

Am Ende entscheidet über die Qualität von DLSS und FSR aber der Entwickler und wie diese das Zeug implementieren, wie viele Daten sie abseits der temporalen Frames zur Verfügung stellen und ein paar andere Sachen. Am Ende - und das kann ich wiederum relativ gut sagen: Im Spielealltag fällt der Unterschied FSR zu DLSS fast nicht oder garnicht auf, weil man auf ganz andere Sachen achtet. Und bitte jetzt nicht damit kommen, dass ich mir dann eine Brille kaufen soll: Ich habe eine Brille und mit dieser 175 % Sehkraft, ich muss einmal im Jahr zum Betriebsarzt und das entsprechend auch prüfen lassen!

scryed schrieb:
Das Nvidia für viele ihrer Features eigene Hardware benutzt hatte doch auch den Vorteil das damit spiele besser gelaufen sind fps technisch
Ja und Nein. FSR2 nutzt keine "Tensorkerne" und schafft dennoch mehr FPS. Die Tensor-Kerne bei DLSS werden zu einem Zeitpunkt belastet, zu dem sich die resteliche Hardware "langweilt" und weniger macht.
geforce-rtx-gtx-dxr-metro-exodus-rtx-rt-core-dlss-frame-expanded.png
Auch das soll jetzt nicht "DLSS" schlecht reden, auf keinen Fall und auch nicht die Tensor-Kerne. Es ist durchaus logisch, dass NVIDIA hier die Tensor-Kerne mit nimmt und dann diese genau dafür nutzt. Genauso bei RT, wo es absolut sinnvoll ist.

Es ist aber eben nicht "immer" absolut notwendig.
LencoX2 schrieb:
Wer würde sich da empören?
Der Vergleich passt hier nicht. Klar, man kann von AMD - Intel oder NVIDIA auch nicht - dass sie hier die Implementation von Funktionen des Konkurrenten übernehmen. Gleichzeitig läuft aber Software weitgehend hardware agnostisch und entsprechend sollte man hier immer versuchen möglichst viele Hardwarehersteller zu denken und auch den Usern die freie Wahl zulassen.

Klar, DLSS läuft nur auf RTX-Karten - was ich absolut nicht mag* - und FSR potentiell auf allen - daher ist hier die Tragik für mich nicht ganz so geben. Ich finde es aber nicht gut, dass hier DLSS nicht mit eingebaut. Wir wissen noch nicht, warum, wieso, weshalb, daher schimpfe ich da nicht weiter. Aber gerade bei einer Firma wie Mircosoft erwarte ich, dass sie das Geld in die Hand nehmen. (MS ist hier für mich das Stichwort, warum ich das alles auch etwas entspannter sehe. Wenn MS sich als Firma, die deutlich stärker ist als AMD und AMD quasi "kaufen" könnte, wenn sie wollten - so drangsalieren lässt, wie hier angedeutet, dann macht MS echt was falsch!

Ich würde das ganze aktuell mal entspannter sehen. Es wird heute viel zu vieles gleich so ernst genommen und immer ein Wir-gegen-Die aufgemacht. Ebenso wird sich immer gleich empört und Protestwellen losgetreten. Absolut unentspannt.

*Ich habe nun 3 Projekte begleitet, in dem Firman mit der Zeit ihre Machtposition mit "tollen" Funktionen ausbauten, am Ende die anderen aber in eine absolute Abhängigkeit getrieben haben. Nachdem quasi die Konkurrenz weg war, wurden dann die Daumenschrauben angelegt und dann reden wir mal von plötzlichen Preiserhöhungen während laufender Supportverträge, vorschreiben, bei wem die Hardware gekauft werden soll, alles was vorher "frei" war plötzlich hinter zusätzlichen Zahlungen versteckt wurde und so weiter. Entsprechend unter sehr großen Schmerzen mussten diese Abhängigkeiten wieder gelöst werden. Heute sind die Leute aber froh, dass sie sich gelöst haben und entsprechend wieder freier sind, weil sie jetzt wieder die Wahl haben und nicht nur auf einen Anbieter festgenagelt sind.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85, graysson, Bachi82 und 9 andere
Zurück
Oben