Notiz CB-Funk-Podcast #103: Die große Leere nach den RTX-5000-Tests

Trotz der Leere und gerade wegen der Lehre von Fabian war es eine sehr gute Folge. Hat Fabian sehr gut erklärt. Für mich war auch neu, dass alles nur auf Fake Frames basiert. Fabian darf also gerne öfter mal was erklären. :)

Ansonsten empfinde ich die RTX 5000 Serie auch als entäuschend schlecht, zumindest im Vergleich zur RTX 4000 Serie. Ich weiß aber auch, dass man nicht immer den riesigen Sprung machen kann. Ich bin aber sowieso jemand, der inzwischen eher Richtung <75W TDP schaut und mit Office PCs dann sowieso noch low profile und am besten nur Single Slot. Mein jetziger Desktop hat Dual Slot, aber die Nachfolgermodelle von DELL haben alle nur noch Single Slot. Da ist HP bisher besser bestückt. Da die beiden DELL Systeme aber von der Firma nur des Alters wegen entsorgt werden sollten, sonst aber noch tadellos funktionieren habe ich die halt mit Erlaubnis nach Hause nehmen dürfen. Finde ich nämlich Schade, wenn man was funktionierendes einfach auf den Müll tut. Neue Geräte werden aber inzwischen von der Firma gespendet. das finde ich wesentlich besser.
 
  • Gefällt mir
Reaktionen: Vitche
Ha! Im letzten Podcast tut @Vitche noch so, als sei er das kleine, junge und unbefleckte Küken, das noch nie eine GeForce 256 in der Hand gehabt hätte und hier haut er jetzt mit Gouraud Shading und Bump und Normal Maps um sich :D

Ja, die 256er GeForce war die erste mit Transform & Lightning-Einheit (Hardware T&L), praktisch dem Wegbereiter der heutigen Shadereinheiten der Grafikkarten.

Aber: wenn du das alles aus dem Kopf erzählt hast, dann muss ich feststellen: so ne gewisse Inselbegabung hat scheinbar jeder, oder?! :D Das war schon ein netter Vortrag, nicht übel und vielen Dank :)

@Jan
Und ja: die alten 3DMarks noch unter der MadOnion-Flagge haben diese frühen Shader schön demonstriert, genauso wie der Remedy-Benchmark "Final Reality" (Texture Mapping allgemein inkl. Gouraud) :)
 
  • Gefällt mir
Reaktionen: Jan
Vielen Dank für die ausführlichen Erklärungen zum Bumpmapping und co.
Ich fand das richtig gut und hätte gerne öfter so detailliert erklärte Technikdetails im Podcast.
 
  • Gefällt mir
Reaktionen: Drahminedum, Vitche, Rexaris und eine weitere Person
DJMadMax schrieb:
Aber: wenn du das alles aus dem Kopf erzählt hast, dann muss ich feststellen: so ne gewisse Inselbegabung hat scheinbar jeder, oder?!
Ich hatte mir im Vorfeld kurz paar Stichpunkte zu den Fragen gemacht, was ich ansprechen will und wo ich mit meinen Ausführungen hin will, denn das war ja schon ne sehr umfangreiche Hörerfrage. Die Bump-Map-Geschichte war dann improvisiert, aber so lange sind meine Computergrafik-Vorlesungen (und die entsprechenden Assignments/Klausuren/Prüfungen) auch noch nicht her. Inselbegabung ist für IT-Studenten befürchte ich eine Voraussetzung, alternativ Masochismus. ^^

DJMadMax schrieb:
Ja, die 256er GeForce war die erste mit Transform & Lightning-Einheit (Hardware T&L), praktisch dem Wegbereiter der heutigen Shadereinheiten der Grafikkarten.
Zu dem Thema und der 265er (die ich btw tatsächlich noch nie in der Hand hatte, die ist quasi so alt wie ich) hatte ich mal paar Nerd-Absätze in eine Sonntagsfrage eingeschleust. Für die heutigen Shader haben aber eher GeForce 3 und GeForce 8000 die Grundlagen gelegt, mit Compute Shadern und dann dem Unified Shader Model. Die GeForce 256 hatte ja noch eine starre in Hardware gegossene Grafik-Pipeline.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cabranium und DJMadMax
Mir gefallen generell die Erklärungen in den Podcasts. Ich verstehe da immer mehr als in Berichten die ich lesen muss. Weiss nicht wieso, aber ich kann gesprochenem besser folgen. Von mir aus, dass da auch gerne öfters sowas kommen. Vielleicht mal zu Maindboards und den "aktuellen" Chipssätzen. :)
 
Vitche schrieb:
Was ich vor allem rüberbringen wollte: Ob es jetzt mehr Fake oder weniger ist, sei mal dahingestellt; aber alles und auch "nativ" ist letztlich überwiegend "fake". Und "fake" an sich ist erst einmal keine Aussage über die Qualität.
Beim letzten Satz stimme ich dir zu aber ich denke du hast dieses Thema in eine philosophische Richtung gelenkt um die es (in meiner Wahrnehmung) nie ging. Klar ist das alles "Fake", es ist ja künstlich dargestellt. Worum es aber eigentlich geht bei "ich will keinen Fake" ist, dass die Hardware gefälligst das berechnen soll, was man von ihr verlangt. Um bei deinem "dummen" Beispiel zu bleiben, wenn die Software sagt "mach Bumpmapping", dann will ich, dass die Hardware Bumpmapping wie aus dem Lehrbuch berechnet. Und nicht irgendeinen KI-BS, von dem der Hersteller behauptet er sieht besser aus (was manchmal tatsächlich der Fall ist, in anderen Fällen wieder nicht).

Bei DLSS Quality sind wir inzwischen immerhin so weit, dass es bei UHD und teils WQHD auf jeden Fall empfohlen wird, weil es besser als "nativ" aussieht. Wobei man das immer noch von Spiel zu Spiel beurteilen muss, denn ganz allgemein philosophisch kann das gar nicht sein (als Informatiker bist du ja wohl mit etwas Informationstheorie vertraut). Kann in der Praxis natürlich schon sein, da die KI eben teils Informationen hinzufügt, die gar nicht da waren und das sieht für unser Gehirn dann "besser" aus, was ja eine legitime Bewertung des Resultats ist.
 
Danke, Danke, Danke!

Die Erklärung "Native ist auch Fake" fand ich genial, sehr gut nachvollziehbar, sogar ohne Kenntnisse bei linearer Algebra (da habe ich rechtzeitig abgewählt^^).

Ich freue mich, wenn so ein Podcast dazu beiträgt, die eigene Position zu hinterfragen und zu ändern. Das habt Ihr bei mir geschafft.

..und zur 5090?
Ich hatte ein bisschen gesponnen, endlich mal wieder einen fetten Wasserkühlungsrechner mit externen Radiator aufzubauen, mein Geld damit zu verbrennen.
Aber Preis-Leistung-Effizienz-Markstart der 5090 lassen plötzlich meine 4080 in rosigen Farben erscheinen. Dann spiele ich halt erstmal weiter entspannt in WQHD und mit Luftkühlung - es gibt Schlimmeres.
 
  • Gefällt mir
Reaktionen: Vitche
"es gibt schlimmeres einfach mal nichts zu kaufen" muss mich meinem vorredner anschließen. selten war es sinnloser was neues anzuschaffen. kann man von glück reden dass GPUs normalerweise wie auch PC hardware im allgmeinene lange lebt solange man sie nicht slebst mit irgnedwelchen settings asuf die andere seite befördert :D
 
Ich sage vorraus AMD wird einen geniestreich im Marketing vollführen! Sie warten in wirklichkeit ab, bis alle relevanten Garfikkarten von NVidia durch die Berichterstattung gegen die Wand gefahren sind um dann ihr überdurchschnittlichen Produkte, die genau für die Midrange und den eigentlichen Massenmarkt zugeschnitten sind. Und wir werden nur noch volles Lob für AMD in der Presse Lesen und NVidia Jünger werdne ihren neuen Gott AMD huldigen und TikToks von brennenden NVidia Karten werden das Internet überflutten!

Okey, .... der letzte Teil da bin ich etwas abgehoben, aber für dne ersten Teil sagt die Wahrscheinlichkeit zumindest, dass es möglich ist.
Auch wenn ich nicht dran glaube, aber falls es doch alles so eintrifft .... hier habt ihr es zuerst gelesen :D

Ich find es ein wenig gemein wie Vitche immer nur die 2000er NVidia generation erwähnt als "Leute mit alten Grafikkarten". Da fühle ich mich mit meiner 1000er Generation Karte irgendwie aussen vor gelassen. Mehr Diverstität bei alten Grafikkarten bitte! Minderheitsgruppen bei Grafikkarten haben auch das Recht genannt zu werden!

Sorry, bin Krank und hab wohl zu viel Ingwer Tee getrunken ^^

@Vitche und @Jan
Ich weiss nicht ob es passt, aber vielleicht könntet ihr ja wirklich einmal im Monat ein Topic genauer erklären wie in dieser Folge? Es muss keine ganze Folge sein, vielleicht finden sich ja gute Themen die so 10-20 Minuten brauchen. Ich persönlich fand das nämlich auch sehr interessant, zu hören, was da so hinter steckt. Auch wenn ich einen teil davon bereits kannte. Aber ein komplettes Bild hatten vermutlich eher die wenigsten.
 
  • Gefällt mir
Reaktionen: Drahminedum und laglover
Cabranium schrieb:
aber vielleicht könntet ihr ja wirklich einmal im Monat ein Topic genauer erklären wie in dieser Folge?
+1
(Wegen mir auch alle 2 Monate, aber gerne regelmäßig)


Themen, die mir spontan einfallen und die ich gerne genauer verstehen würde:
  • Qualität von Netzteilen
  • Mainboards (Features, Chipsätze)
  • Kühlkonzepte (Airflow, Auswirkung von höheren Chip-Temperaturen, denn für mich geht Lautstärke vor Temperatur, nur wie weit "darf" man das treiben?)
  • Autonomes Fahren #Autobase
 
  • Gefällt mir
Reaktionen: laglover und Cabranium
In Reflexion auf das letzte Graka-Jahr muss man auch wirklich sagen - hätte man sich bloß im Sommer eine 40er gekauft. Ich habe jetzt gerade eine 4060 Ti 16 GB bestellt (Gaming und Hobby KI), weil alles andere wenig Sinn macht. Die Preise für die größeren sind sogar gebraucht astronomisch, eine 5080 hat auch nur 16 GB und damit im Hinblick auf die Modellgröße keinen Vorteil und die 160 Watt der 4060 sind da wirklich sparsam, da ich auch nicht einsehe, diesen Watt-Wettlauf mitzumachen. NVIDIA hat einen da mit einer Reihe schlechter Optionen im Regen stehen gelassen. Hätte man mir letzten Sommer gesagt, dass ich die Variante wählen würde, hätte ich ihn für blöd gehalten 😄
 
  • Gefällt mir
Reaktionen: Jan und Vitche
Hallo,
Sind die Karten in anderen Ländern lieferbar?
Denke da an die USA oder Golfstaaten?
 
Vielen Dank für diese fantastische Folge. Es war sehr tröstlich eure menschliche Einordnung des katastrophalen 50er Launches zu hören.
Und Fabians Nerd-Rant über die Wichtigkeit der Fließkommaberechnung für 3D-Grafik war einfach großartig. Soviel Kompetenz die Dinge von größten bis zum kleinsten zu erklären und Zusammenhänge herzustellen ist leider so selten in Zeiten wo die meisten nur ein schnelleres Totschlagargument rausschießen.
Und besonderen Respekt an Jan, durch geschicktes interviewen nach all diesen Tangenten immer wieder den Bogen zur Hauptfrage zu kriegen. Computergrafik ist faken und schlaue Abkürzungen finden bis zum umfallen. Und selten wird das so schön und unterhaltsam begründet wie von euch hier.
Danke!
 
  • Gefällt mir
Reaktionen: Cabranium, Vitche und Jan
laglover schrieb:
Ich werde meine bisherige Einstellung zu Dlss und Konsorten wohl überdenken müssen, ist ja schließlich nicht mehr fake als bisher;)
Doch ist es.
Wir sind doch gerade bei den Auflösungen so deutliche Schritte nach oben gegangen, weil mehr Informationen (im Sinne von Auflösung) eigentlich durch nichts zu ersetzen seien.
Nun hört man Empfehlungen wie "man nehme DLSS4 Performance, damit MFG korrekt auf dem 240 FPS Monitor funktioniert". Das hat Fabian zwar nicht in dieser Folge gesagt, wurde aber gebetsmühlenartig bei beiden RTX 50 Releases wiederholt. Als wäre das die Zukunft.
Und hier frage ich mich, wo wir falsch abgebogen sind. Wozu soviel FPS? Das spielt doch höchstens für eine ganz bestimmte Nische eine Rolle, für competitive FPS (First Person Shooter, oder man könnte in dem Sinne auch "Fast Paced Shooter") sagen.

Eine möglichst hohe native Auflösung ist die Basis für Bildqualität.
Deswegen sehe ich auch weiterhin DLSS als "Pixelbei", mit Ausnahme von DLAA / FSR Native.
DLSS Quality ist doch nur deswegen hübscher anzusehen als natives 4k, weil es einfach so stark TAA überlegen ist.
 
Ich finde die Diskussion über Fakeframes schon Sinnvoll, soll man sie durchkommen lassen mit "die 5070 ist so gut wie ne 4090" weil alle Frames sind Fake daher ist das doch ganz normale "native" Darstellung?

Das kann ja nicht die Alternative sein, wie soll dann die alternative Diskussion sein, ohh die 9070 sucks weil sie nur 50% fps von ner 5070 hat?

Nvidia hat die Tür aufgestoßen wenn die so tun als wäre es 1:1 das selbe (ne 5070 ist so gut wie ne 4090), dann darf man da auch alle Handschuhe aus ziehen und volle Attacke gegen fahren.

Es kann ja nicht sein das Wenn Nvidia absolut unverschämtes an Lügen grenzendes Marketing macht, das dann die normalen User sich zügeln sollen und sehr fair und ausgewogen und was auch immer damit umgehen muss, sie wollten nen Hype für eine 12gb karte die sie als 4090 verkaufen wollen, dann sollen sie sich über den Hate und Spot nicht beschweren, das ist der Preis für den Anfänglichen Hype, man kann nicht sagen ohh Nvidia macht besseres Marketing und wenn es da einen Backlash gibt sagen, aber da darf man sie jetzt nicht hart kritisieren, doch darf man. Nein wenn der Backlash sehr negativ ist dann haben sie vielleicht doch kein Gutes Marketing gemacht, oder man sagt 90% der Kunden hören eh nichts von dem Backlash dann ist dieser noch begründeter.

Ich muss mir auch unfaires "AMD wird das schon versauen" Vorurteile nonstop anhören... obwohl alle geleakten Benchmarks und alles zu 100% darauf hin deutet das es ein super release werden wird.
 
Starcraftfreak schrieb:
Worum es aber eigentlich geht bei "ich will keinen Fake" ist, dass die Hardware gefälligst das berechnen soll, was man von ihr verlangt. Um bei deinem "dummen" Beispiel zu bleiben, wenn die Software sagt "mach Bumpmapping", dann will ich, dass die Hardware Bumpmapping wie aus dem Lehrbuch berechnet.
Das ist ja auch immer noch so und wird auch so bleiben, mit der Einschränkung, dass man oberhalb des untersten Indie-Budgets heute niemals einfach nur Bump-Mapping ohne weitere Effekte verwenden würde. In der Praxis geht aber eben kaum ein Spieler hin und sagt "Ich will Bump-Mapping", sondern eher "Ich will eine möglichst gute Grafik und möglichst viel FPS". Und da kann man dann folgerichtig wollen, dass dieser Zweck mit den Mitteln der Zeit bestmöglich umgesetzt wird.

Starcraftfreak schrieb:
Bei DLSS Quality sind wir inzwischen immerhin so weit, dass es bei UHD und teils WQHD auf jeden Fall empfohlen wird, weil es besser als "nativ" aussieht. Wobei man das immer noch von Spiel zu Spiel beurteilen muss, denn ganz allgemein philosophisch kann das gar nicht sein (als Informatiker bist du ja wohl mit etwas Informationstheorie vertraut). Kann in der Praxis natürlich schon sein, da die KI eben teils Informationen hinzufügt, die gar nicht da waren und das sieht für unser Gehirn dann "besser" aus, was ja eine legitime Bewertung des Resultats ist.
Redirion schrieb:
Wir sind doch gerade bei den Auflösungen so deutliche Schritte nach oben gegangen, weil mehr Informationen (im Sinne von Auflösung) eigentlich durch nichts zu ersetzen seien. […] Eine möglichst hohe native Auflösung ist die Basis für Bildqualität. Deswegen sehe ich auch weiterhin DLSS als "Pixelbei", mit Ausnahme von DLAA / FSR Native. DLSS Quality ist doch nur deswegen hübscher anzusehen als natives 4k, weil es einfach so stark TAA überlegen ist.
Ihr müsst bedenken, dass bei einem beispielsweise mit DLSS Quality ausgegeben Bild deutlich mehr tatsächlich berechnete bzw. gerenderte Pixel die Grundlage des Ausgabe-Frames sind als bei nativem UHD, weil DLSS (und auch FSR sowie XeSS) temporal arbeiten, d.h. auf die Pixel- und Vektor-Informationen von vielen vorherigen Frames zugreifen. Man hat also, wenn wir bei den Begriffen der Informatik bleiben wollen, statt des Brute-Force-Ansatzes eine Heuristik und einen approximativen Algorithmus, der in diesem Fall sogar dank der großen Datenbasis bessere Ergebnisse liefert (und nicht nur wegen der besseren Kantenglättung).

Das ist auch keine Anomalie in der Computergrafik, überall werden solche Prinzipien angewandt, um Rechenleistung effizienter nutzen zu können. TAA war btw eine direkte Vorstufe, auch da fand bereits eine Verrechnung einiger vorheriger Frames statt, nativ ist/war also auch das nicht (so wie halt gar nichts, wenn es gut aussehen soll).

blackiwid schrieb:
Ich finde die Diskussion über Fakeframes schon Sinnvoll, soll man sie durchkommen lassen mit "die 5070 ist so gut wie ne 4090" weil alle Frames sind Fake daher ist das doch ganz normale "native" Darstellung?
Ne, so weit würde ich es definitiv nicht treiben und das ist auch als irreführendes Marketing zu kritisieren. FPS als Metrik allein reichen bei solchen Vergleichen nicht mehr, da muss zwangsläufig auch auf die Latenz geschaut werden und da wird die 5070 nie mit der 4090 mithalten können. Zumal der stumpfe Fokus auf die FPS auch den Grafikspeicher komplett ausklammert, von dem die 5070 natürlich viel zu wenig hat um 2025 ein sorgenfreier Kauf für UHD sein. Also, ja, Nvidia lotet aktuell wirklich noch härter die Grenzen der Unverschämtheit aus und hat Spielern imho mit der ganzen RTX-50-Genreration einen Bärendienst erwiesen, will meinen wenn sie einfach den RTX-40-Zustand vor einem halben Jahr bewahrt hätten wären Spieler jetzt deutlich besser dran. Man darf aber trotzdem nicht aberkennen, dass nahezu alle relevanten Innovationen in der Computergrafik der letzten 25 Jahre entweder direkt auf Nvidia zurückgehen oder von Nvidia zuerst aufgegriffen und verbreitet wurden. Das sind halt zwei Paar Schuhe.
 
  • Gefällt mir
Reaktionen: FR3DI und Redirion
Vitche schrieb:
dass nahezu alle relevanten Innovationen in der Computergrafik der letzten 25 Jahre entweder direkt auf Nvidia zurückgehen oder von Nvidia zuerst aufgegriffen und verbreitet wurden. Das sind halt zwei Paar Schuhe.
Naja finde Mantle -> Vulkan -> DX12 von AMD jetzt schon auch ne relativ wichtige Sache, und ich würde auch sagen das Nvidia nur von teils schwachem AMD in manchen Zeiten profitiert.

Raytracing hatte nur ne Chance sich überhaupt so dominant durch zu setzen weil AMD so suckte, normal wenn Nvidia massenhaft Raytracing einheiten auf den Chip tut die für Raster nichts bringen und AMD das nicht tut das sie dann massiv bessere Preis/Leistung in Raster haben müssten und dann hätten viele Spieler alle die nicht >1000 Euro blechen wollen auf Raytracing geschissen, da AMD aber Wucherpreise für diese Raster-only Karten verlangt hat weil sie einen offenbar zumindest bisher absolut idiotisch Zwanghaft auf ihr Tilingscheiß gesetzt haben.

Jetzt mit der 9070 sehen wir was für ne Preisleistung wir mit RDNA3 hätten haben können wäre nicht diese Technik die Chips nur Langsamer und teurer macht eingesetzt worden. (Letztlich würde ich die entscheidung auf Tiling zu setzen ungefähr mit Intels Fertigungsdisaster gleich setzen, nur das AMD breiter aufgestellt ist und nicht daran Bankrot gehen droht.)

Ja Raytracing mag das Nonplusultra in 10 Jahren sein, full Raytracing (Pathtracing) wohlgemerkt darunter ist das nur Spielkram... aber wenn AMD eben in Raster Nvidia wegen in Leistung noch Preis/Leistung stark besiegen kann, ja dann kauft man den Raytracing shit mit weil ist ja quasi kostenlos und plötzlich wird es zum großen hype auch wen 80% eh zu schwache Karten daheim haben oder selbst mit stärkeren es abschalten oder es auch nicht massiv mehr Spielspaß oder Immersian gibt wenn man es spielt, da wenn man echt Spielt und nicht nur durch die Gegend fährt oder sich nen Film über nen Spiel anschaut man eh nicht so stark auf jedes Mini Optik Ding schaut. Nicht umsonst sind Spiele mit 10 Jahre alter Grafik wie Leage of Legends und Wow usw. so populär.

Aber ja leicht abgeschweift, man muss halt auch sehen das selbst Raytracing schon eine umstrittene Technik ist die viele Entwickler nicht mal einsetzten wollen grade auch Indietitel, weil sie dann nimmer wirklich kontrolle haben wie jedes Pixel aus sieht von den Zusatzkosten der Herstellerbindung und wenn man irgendwas im Spiel updated dann diese Techniken damit massiv negativ interagieren können und die Spiele extrem drauf hin optimiert werden müssen.

Besoders wenn man immer beides programmieren muss perfekte Raster unterstützung und Raytracing unterstützung ist es eben wie man es drehen und wenden will nur zusätzliche Arbeit erst wenn man Raster nimmer supporten muss reduziert sich die Arbeit widere auf ca. 100% Normalität.

Für mich ists bisschen wie wenn die Gamer ein Early Access bezahlen müssen besonders in der 10er und 20er gen und auch heute noch in den 60er varianten. Nur wenn AMD es nicht schafft ohne dieses Early Access support sie in Raster zu vernichten dann kann Nvidia natürlich machen was immer sie wollen, dann heißt halt friss oder stirb.
 
Vitche schrieb:
man oberhalb des untersten Indie-Budgets heute niemals einfach nur Bump-Mapping ohne weitere Effekte verwenden würde
Das "Bump-Mapping" war als Platzhalter für jede beliebige Technologie gedacht und eher deiner Erwähnung im Podcast geschuldet.

@Jan kann dir da sicher Anekdoten erzählen wie ATI und NVIDIA in den 2000ern zB bei Anisotropischer Filterung "optimiert" haben. Das lief nach dem Motto "ach, bei dem Winkel sieht man das Ergebnis ja gar nicht" und schon pfuschte der Treiber herum und es wurde AF dann unter gewissen Bedingungen nicht berechnet. In manchen Fällen war das dann aber nicht so unsichtbar wie gerne behauptet. Das Ende vom Lied war, dass Reviewer von beiden Herstellern gefordert haben, dass die Treiber solche Optimierungen abschaltbar machen müssen und die Defaults nicht auf einer Kaputt-Stufe sein dürfen, soweit ich mich erinnern kann war das relativ erfolgreich.

Oder etwas rezenter, bei Tesselation hatte auch irgendeine AMD Generation (so Radeon HD 5000/6000 herum?!) eine Schwäche und da hat man dann die Anzahl der Berechnungsschritte im Treiber "optimiert". Das war auch ein kleiner Skandal, weil damals jeder Wald- und Wiesen-Reviewer den Unigine Heaven Benchmark verwendet hat.

Du hast es ohnehin schon gut auf den Punkt gebracht, manchmal schafft man es die Rechenleistung schlauer einzusetzen und kann dann mit weniger Arbeit ein besseres Ergebnis erzielen und in diesen Fällen ist das auch ok. Dennoch finde ich diese Art von "Fakes" immer kritisch zu betrachten, sei es Fake-Technologie XYZ, Fake-Pixel, Fake-Frames, etc. MFG habt ihr schon öfter kritisch betrachtet und das ist auch gut so.

Der Punkt ist denke ich, bei all diesen kritisch zu hinterfragenden Technologien kann man eben nicht uneingeschränkt sagen, "mach das an und es wird besser aussehen".
 
Zurück
Oben