Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Raptor Lake vs. Alder Lake: Viele Benchmarks mit Muster eines „Core i9-13900“
Z
Zer0Strat
Gast
Da ja nun RPH-X ebenfalls dieses Jahr kommt, wird es für Raptor Lake in den Spielebenchmarks nicht einfach. Stock vs. stock dürfte AMD durch den V-Cache klar dominieren. Spannend bleibt aber OC vs. OC. Wie das ausgeht ist noch völlig offen. Während der große L3 Cache wenig Optimierungspotential offen lässt, sieht das mit Intel CPUs ganz anders aus. 20% Performancegewinn sind nicht ungewöhnlich. Die Frage ist, ob ein 7800X3D/ 7900X3D stock 20% vor einem 13900K liegt. Das sehe ich ehrlich gesagt nicht.
Zuletzt bearbeitet von einem Moderator:
- Registriert
- Juli 2021
- Beiträge
- 2.805
Ich habe doch geschrieben, was ich davon halte, nämlich dass ich es den falschen Weg finde, dass wir den absoluten Verbrauch weiter steigern.Beg1 schrieb:Dann frage ich doch mal direkt, was hältst du denn davon?
Weil eine andere Person davon gesprochen hat, dass die Leute ja nach immer mehr Leistung rufen - pauschal. Dagegen habe ich entsprechende Beispiele gebracht, die ein differenziertes Bild zeigen sollten.Beg1 schrieb:Und warum bringst du die Beispiele an, wenn sie dann doch nichts zu deiner Argumentation beitragen?
Die Beispiele waren also Gegenargumente zu einer Behauptung, die ich angegriffen habe und dienen nicht der Unterstützung meiner eigentlichen Meinung.
Und nun ziehst du dich und auch die Gruppe, in die Opferecke zurück, weil ich eure Meinung invalidiere.Beg1 schrieb:Im Endeffekt stellt @DevPandi seine Meinung in den Raum und wartet auf Antworten, bei der Nachfrage, warum er gegen steigenden Energieverbrauch (auch bei gesteigerter Leistung) ist, bleibt er allerdings stumm, stattdessen versucht er gegenteilige Meinungen zu invalidieren.
Nun, ich habe eine pauschale und polemische Äußerung angegriffen, als das was sie ist, und anschließend meine Meinung ohne weitere Begründung geschrieben. IHR versucht aktuell meine Meinung zu invalidieren/falsch darzustellen, weil ihr die Meinung nicht teilt.
Und erneut: Ich liefere keine inhaltliche Argumentation dafür ab, weil ich genau weiß, wie diese Diskussion dann verläuft und auch weiß, dass es das Thema hier sprengt und in der Regel auf einer Ebene geführt wird, die nicht wirklich gut ist und ich diese Art der Diskussionen hier als auch wo anders bereits geführt habe und ich sie nicht mehr führen will.
Im übrigen habe ich auch bereits auf Nolag verwiesen, der mich nicht versucht mit irgendwelchen Vergleichen, Verweisen auf den OPVN oder fiktiven Statistiken versuchzt zu überzeugen, sondern auf einer inhaltlich technischen Ebene. Da gehe ich auch gerne weiter drauf ein, auf eure Ausweitung der Diskussion auf andere Felder wiederum gehe ich nicht ein!
Du magst es normal finden in einer Diskussion, dass man Aussagne/Argumente aus dem Kontext reißt um andere anzugreifen. Du magst auch den Angriff auf die Lebensweise eines Mitmenschen als legitime Diskussionskultur erachten oder dass man zig andere Baustellen eröffnet um irgendwie einen Stich in der Diskussion zu laden, für mich wiederum ist es dass nicht und da ich auch hier immer wieder - bei anderen Themen merke - wie schnell eine Diskussion dadurch auch aus dem Ruder läuft, versuche ich mich genau in den Punkten zu verbessern und das bedeutet für mich auch, dass ich bei dem eigentlichen Thema bleibe und nicht irgendwelche Nebelbomben werfe, damit ich irgendwie einen Stich landen kann.Beg1 schrieb:Sollte ein Forum so funktionieren? Dann habe ich jahrelang falsch diskutiert...
Oh, mein Text muss keine weitere inhaltliche Substanz haben - hat er auch nicht - weil ich mich nicht inhaltlich auf eure Argumente einlasse, da diese für mich mit dem eigentlichen Thema nichts zutun haben, sondern nur dazu dienen, dass ihr auf irgendeine weise mir klar machen wollt, dass ich falsch liege. Entsprechend bedient ihr euch des Whataboutism, Strohmännern und Redherings und allen damit verbundenen Techniken.m3rch3r schrieb:Eventuell fehlt mir ja nur das, um überhaupt zu verstehen, was dein Punkt ist. Bis auf - "ich finde die Entwicklung schlecht", kommt trotz deiner riesigen Texte einfach nichts 'rum, was Substanz hat.
Um dir aber klar zu machen, was ich genau meine, greife ich mal das Thema des Kühlschrankes auf und dass man diesen eine Stufe runter reglen kann und das mehr helfen würde, als wenn eine CPU mehr Energie benötigt: Warum bringst du diesen Vergleich an? Was hat der Kühlschrank mit einer CPU zutun? Du bringst an dieser Stelle den Kühlschrank als Gegenargument, nicht aber weil es wirklich ein sachliches Gegenargument wäre und mit dem Thema zutun hat, sondern weil du auf einen anderen Bereich verweisen willst und man da ja viel mehr machen könnte, weswegen es bei einer CPU nicht schlimm wäre, wenn diese plötzlich mehr verbraucht.
Gleiches gilt für den ÖPNV der anderen Person, man lenkt an dieser Stelle von der eigentlichen Diskussion ab, weil etwas anderes viel schlimmer wäre und daher man doch lieber da anfangen sollte. Das ist ein klassisches Ablenkungsmanöver führt von der eigentlichen Thematik weg. Für meine Meinung ist es aber irrelevant ob ich den ÖPVN nutze oder wie ich meinen Kühlschrank oder meine Heizung einstelle oder es andere Menschen gibt oder ob es auch da mögliche Sparpotentiale gibt. Dieses Ablenken ist eine angenehme Taktik, weil man dann die eigene Verantwortung auf andere schiebt: "Ja, also meines ist ja nicht so schlimm, schaut, das da ist viel schlimmer!"
Und genau dieses "die Anderen" führt heute auch dazu, dass wir in vielen Bereichen einfach nicht vorran kommen, weil immer alle auf die anderen verweisen. Geh ich nun zu jemanden, der seinen Kühlschrank gerne auf Stufe 5 oder 6 hat, dann kommt er und sagt mir: "JA, schau auf dich, du spielst jeden Tag 3 Stunden am Computer, das verbraucht viel mehr Energie, fang erst mal bei dir an." Und so geht es weiter.
Wie ich schrieb, der einzige, der mich aktuell inhaltlich wirklich ohne Ablenkung auf andere themen, versucht zu überzeugen, ist @Nolag und daher antworte ich da auch gerne drauf.
Ihr versucht das Thema zu erweitern, und darauf werde ich nicht eingehen, denn diese Ablenkung wird immer und immer wieder benutzt, nur damit man das eigene Handeln nicht hinterfragen muss, und dass bin ich leid!
@zerostrat von dir bin ich schwer enttäuscht! Gerade du hättest es drauf mich hier zumindest auf einer "technischen" Ebene in die Diskussion zu ziehen, so dass man sich wirklich auf das Thema konzentriert, so zeigst auch du einfach nur, dass du dich und dein Hobby nicht wirklich hinterfragen willst, sondern einfach nur auf andere Bereiche verweist, weil dein Hobby ist ja nicht so schlimm. Geschenkt!
Erst mal weiterhin ein Lob, dass du die Argumente auf technischer Ebene und auch im Bereich der IT belässt und nicht auf Kühlschränke, ÖPNV und Co gehst, das finde ich echt toll!Nolag schrieb:Ich kann nun eben nicht mehr durch einen Shrink Einsparungen erzielen. Das ist ja auch ein Grund für die Chipkrise, weil sich für viele Produkte ein Shrink nicht mehr lohnt und die Fertigung auf den kosteneffizienten Prozessen mit begrenzter Kapazität festhängt.
Die Chipkrise im ganzen ist da weitaus komplexer und hat zwar auch mit den Shrinks zutun und dass es da immer teurer wird, aber in dem Fall ist das eher ein kleiner Faktor, die größeren Faktoren sind in der Coronakrise mit gesteigerte Nachfrage von IT-Elektronik zusuchen, ebenso auf gestörte Lieferketten und der Zurückhaltung der Firmen, die in Erwartung einer Krise einfach mal Bestellungen und Co gecancelt haben sowie in manchen Beriechen angewendete Just-In-Time-Lieferung für benötigte Teile.
Aber du hast recht, die Kosten für Transistoren steigen an.
Ob sich der Trend fortsetzen wird? Warten wir mal AD102 und auch Navi31 ab und was da so kommt. Meine Tabelle diente in dem Fall eher der andeutung, dass zwischen zwei Generationen im selben Fertigungsschritt - Pascal und Turing - die Chipgröße ansteigt, wenn mehr Leistung rum kommen will und man nicht nur mehr Takt fahren kann/will.Nolag schrieb:Die Tabelle zeigt doch bereits, dass die kleineren Consumer-Dies von Turing auf Ampere wesentlich kleiner wurden. Dieser Trend wird sich fortsetzen.
Es ist richtig, dass die Chips zwischen Turing und Ampere geschrumpft sind, da gleichzeitig hat sich der Transistor-Count dennoch drastisch erhöht. Zwischen Pascal und Ampere - ist der Chip gewachsen und hatte mehr Transistoren.
Aber ich verstehe, worauf du hinaus willst und kann dein Argument nachvoll ziehen und sogar zustimmen.
Ja, das ist auch okay und ich kann auch deine Begründung dafür verstehen. Ich gehe an diese Thematik aber von einer anderen Seite heran, die weniger technischer Natur ist. Würde ich nur die technische Ebene betrachten, dann würde ich auch sagen, dass es okay ist, dass die Leistungsaufnahme steigt, weil auch die Leistung steigt. Wie ich aber ansprach, zeigt die aktuelle Situation, dass die Hersteller die Effizient im Namen des längsten Balken opfern.Nolag schrieb:Ich finde es nicht so dramatisch, dass die Top-Produkte, mit relativ geringen Stückzahlen, eine so hohe Leistungsaufnahme haben.
Ich kann daher schon sagen, dass meine Meinung nicht auf technischen Argumenten basiert, sondern auf philosophischen, ökologischen und sozialwissenschaftlichen Überlegungen. Über die eine philosopische - der längste Balken - habe ich gesprochen, alle anderen Überlegungen wären aber für das Thema hier reinstes Gift, weil das Thema viel zu komplex ist.
Da sind wir halt an dem Punkt, an den ich in der Diskussion nicht kommen will oder besser zu dem Punkt, den ich nicht diskutieren will, weil mir dieser Punkt zu aufgeladen ist und es oft auch über eigene Überzeugnungen geht und diese dann einem oft im Weg stehen und da nehme ich mich nicht aus.Nolag schrieb:Es ist vielmehr ein Problem, dass die Produkte für die breite Masse nicht mehr so schnell effizienter werden wie in der Vergangenheit und man sich Effizienz zukünftig leisten können muss.
Nur so viel kann ich dazu dann doch schreiben: Auch wenn wir mit Solarkraft und Co durchaus eigentlich "unendliche" Energiequellen haben, es gibt sehr viele Töpfe, die aktuell mehr Energie wollen. Elektroautos, der ÖPNV, die Häuser,wenn es so weiter geht, werdne auch wir sicher irgendwann Klimaanlagen "verbauen" wollen und so weiter. Jeder Bereich argumentiert aktuell damit, dass das "Mehr" ja kein Prolem ist, da man an "andere" Stelle sparen könnte. Wenn aber alle immer "mehr" wollen, dann ist die Frage, wie wir das bewerkstelligen wollen. - Und dmait wären wir dann in der politischen, ökonomiscen und ökologischen Ebene und willkommen im Schlachtfeld!
Z
Zer0Strat
Gast
Was genau meinst du? Ich kann dir gerade nicht folgen. Meinst du meinen Hinweis auf OC?DevPandi schrieb:@zerostrat von dir bin ich schwer enttäuscht! Gerade du hättest es drauf mich hier zumindest auf einer "technischen" Ebene in die Diskussion zu ziehen, so dass man sich wirklich auf das Thema konzentriert, so zeigst auch du einfach nur, dass du dich und dein Hobby nicht wirklich hinterfragen willst,
ArrakisSand
Lieutenant
- Registriert
- Dez. 2019
- Beiträge
- 857
Möglicherweise schaft es der 13900K mit max. OC den Rückstand den er voraussichtlich unter Stock conditions haben wird so wieder aufzuholen.
Allerdings dürfte er wie dies bereits beim Duell zwischen dem 5800X3D vs. 12900K der Fall war, was den Verbrauch anbelangt wieder um Welten abgeschlagen sein.
Man erinnere sich nur an den Vergleich des 12900K in 6 Games bei PCGH wo er im Schnitt 186W vs. 70W des 5800X3D verbraucht hat.
Nicht anderes, eventuell sogar noch leicht extremer erwarte ich mir vom kommenden Duell zwischen dem 13900K und dem 7800X3D (200W vs. 70W?)
Das mutet an, wie ein Duell zweier Silberpfeile von anno 1930 vs. 2021 beide mögen locker 300km/h auf den Tacho bringen, aber punkto Effizienz und sonstiger Parameter liegen Welten dazwischen.
Das fängt schon dabei an, dass man beim Silberpfeil aus den 30ern um ihn überhaupt einmal in Gang zu bringen mit einer zweiten Person samt Kurbel nachhelfen musste. Bzw. auf den Vergleich der beiden CPU's bezogen, muss man beim 13900K damit er überhaupt mal in Gang kommt, zuerst sündhaft teuren high tech. GDDR5 kaufen, am besten noch eine Wasserkühlung dazu um die 200 - 300W auch vernünfig abführen zu können und beim Netzteil darf natürlich auch nicht gespart werden.
Beim 7800X3D wiederum reicht GDDR5 von der Stange, bei der Kühlung muss man auch nicht all zu große Hürden überwinden und das Netzteil muss man, eventuell trotz des absehbaren Mehrverbrauch der kommenden Love lance und RDNA3 GPUS's noch nicht einmal austauschen.
Allerdings dürfte er wie dies bereits beim Duell zwischen dem 5800X3D vs. 12900K der Fall war, was den Verbrauch anbelangt wieder um Welten abgeschlagen sein.
Man erinnere sich nur an den Vergleich des 12900K in 6 Games bei PCGH wo er im Schnitt 186W vs. 70W des 5800X3D verbraucht hat.
Nicht anderes, eventuell sogar noch leicht extremer erwarte ich mir vom kommenden Duell zwischen dem 13900K und dem 7800X3D (200W vs. 70W?)
Das mutet an, wie ein Duell zweier Silberpfeile von anno 1930 vs. 2021 beide mögen locker 300km/h auf den Tacho bringen, aber punkto Effizienz und sonstiger Parameter liegen Welten dazwischen.
Das fängt schon dabei an, dass man beim Silberpfeil aus den 30ern um ihn überhaupt einmal in Gang zu bringen mit einer zweiten Person samt Kurbel nachhelfen musste. Bzw. auf den Vergleich der beiden CPU's bezogen, muss man beim 13900K damit er überhaupt mal in Gang kommt, zuerst sündhaft teuren high tech. GDDR5 kaufen, am besten noch eine Wasserkühlung dazu um die 200 - 300W auch vernünfig abführen zu können und beim Netzteil darf natürlich auch nicht gespart werden.
Beim 7800X3D wiederum reicht GDDR5 von der Stange, bei der Kühlung muss man auch nicht all zu große Hürden überwinden und das Netzteil muss man, eventuell trotz des absehbaren Mehrverbrauch der kommenden Love lance und RDNA3 GPUS's noch nicht einmal austauschen.
Z
Zer0Strat
Gast
Ich denke nicht, dass der 7800X3D mit 70W auskommt. Der Takt wird sehr viel höher sein, ansonsten kann er sich nicht vom 5800X3D absetzen. Wenn man den 12900K mit 5.1GHz und deaktivierten E-Cores betreibt, verbraucht der keine 186W in Games.ArrakisSand schrieb:Nicht anderes, eventuell sogar noch leicht extremer erwarte ich mir vom kommenden Duell zwischen dem 13900K und dem 7800X3D (200W vs. 70W?)
Zuletzt bearbeitet von einem Moderator:
- Registriert
- Nov. 2009
- Beiträge
- 6.495
Lovelace. Ada Lovelace, IT-Pionierin und Tochter von Lord Byron.ArrakisSand schrieb:Love lance
Na ja, etwa +15% sind ja laut TSMC schon ohne Mehrverbrauch drin. So viel mehr muss es also womöglich gar nicht sein.Zer0Strat schrieb:Ich denke nicht, dass der 7800X3D mit 70W auskommt. Der Takt wird sehr viel höher sein, ansonsten kann er sich nicht vom 5800X3D absetzen.
Aber erst einmal kommen die Duelle 7800X vs. 13600K und 7900X vs. 13700K.ArrakisSand schrieb:... erwarte ich mir vom kommenden Duell zwischen dem 13900K und dem 7800X3D
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Und falls ein im Jahr 2023 wirklich ein überteuerter 8 Kerner mit 3D Cache kommt:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Z
Zer0Strat
Gast
Iso Power Angaben schön und gut, aber man wird erstmal schauen müssen, wie die Architektur nach oben raus skaliert.Nixdorf schrieb:Na ja, etwa +15% sind ja laut TSMC schon ohne Mehrverbrauch drin. So viel mehr muss es also womöglich gar nicht sein.
Aber das wird ohne Zweifel darauf hinauslaufen, dass RPH-X in Games deutlich effizienter sein wird.
@Ossi Nur mal bezogen auf dein zweites Video, hab ein paar von den Benchmarks nachgestellt letztens. Einiges davon ist flawed. Der Verbrauch des 12700K in PUBG ist viel zu niedrig. Liegt an einem Scheduler Bug unter Windows 10. Der Verbrauch des 5800X3D ist teils viel zu hoch. Gerade HZD schlägt hier raus.
Zuletzt bearbeitet von einem Moderator:
ArrakisSand
Lieutenant
- Registriert
- Dez. 2019
- Beiträge
- 857
Schon möglich das er durch den höheren Takt (ca. 5.5GHz?) etwas mehr als 70W benötigen wird, allerdings sollte man die durch den neuen Prozess erzielten Effizienzgewinne nicht unterschätzen.Zer0Strat schrieb:Ich denke nicht, dass der 7800X3D mit 70W auskommt. Der Takt wird sehr viel höher sein, amsonsten kann er sich vom 5800X3D nicht absetzen. Wenn man den 12900K mit 5.1GHz und deaktivierten E-Cores betreibt, verbraucht der keine 186W in Games.
Ausgehend von den 4.5GHz des 5800X3D wären +15% iso power (N7 / N5) ca. 5.2GHz
+ 7% iso power (N5 / N5p) = 5.5GHz
Bei Zen 4 handelt es sich weiterhin, soviel ich gehört habe um ein relativ schmales Design grössere Änderungen dürfte es in dieser Hinsicht wohl erst mit Zen5 geben.
Diese Videos, die @0ssi immer postet, sind auch (vermutlich) Fake:Zer0Strat schrieb:Nur mal bezogen auf dein zweites Video, hab ein paar von den Benchmarks nachgestellt letztens. Einiges davon ist flawed. Der Verbrauch des 12700K in PUBG ist viel zu niedrig. Liegt an einem Scheduler Bug unter Windows 10. Der Verbrauch des 5800X3D ist teils viel zu hoch. Gerade HZD schlägt hier raus.
https://mobile.twitter.com/andreif7/status/1535649222699143174
https://mobile.twitter.com/andreif7/status/1535652016474755072
Zuletzt bearbeitet:
Z
Zer0Strat
Gast
Kenn ich. Ist teils ne gewagte Behauptung, aber am Ende kommen auch mir viele der Zahlen von Testing Games äußerst spanisch vor.guggi4 schrieb:Diese Videos, die @0ssi immer postet, sind auch Fake:
DevPandi schrieb:Ich habe doch geschrieben, was ich davon halte, nämlich dass ich es den falschen Weg finde, dass wir den absoluten Verbrauch weiter steigern.
Du magst auch den Angriff auf die Lebensweise eines Mitmenschen als legitime Diskussionskultur erachten [...]
Ich kann daher schon sagen, dass meine Meinung nicht auf technischen Argumenten basiert, sondern auf philosophischen, ökologischen und sozialwissenschaftlichen Überlegungen.
Deine Meinung ist doch auch absolut unproblematisch, ich lese lediglich gerne die Begründungen zu solchen Meinungen, deine Lebensweise mag sich in deiner Meinung wiederspiegeln, aber warum sollte ich dich dafür angreifen?
Es ist für mich einfach merkwürdig, wenn jemand mit whataboutism und co. anfängt, aber gleichzeitig seine Argumentation - welche vermutlich ebenfalls über das eigentliche Thema hinausgeht - zurückhält.
Wie ich bereits dargelegt habe, gibt es auch für mich bestimmte Verbrauchsgrenzen, weil ich die Abwärme als unangenehm empfinde und eine Klimaanlage nur für den Gaming-PC anzuschaffen keine zufriedenstellende Lösung ist.
Wenn man allerdings anfängt "Regulierung" zu fordern, dann sollte man auch anfangen Argumente zu bringen, zudem MUSS man dann eben auch anfangen über andere Bereiche/Geräte zu reden, das ist dann auch kein Whataboutism mehr.
Dazu kann man sich dann beispielsweise mal das heißdiskutierte "Gaming-PC-Ban" Gesetz aus Kalifornien anschauen, welches eben nicht nur Gaming-PCs betrifft und selbst dieses verbietet den Kauf von ineffizienten GPUs einzeln eben auch nicht.
https://govt.westlaw.com/calregs/Do...plays, and Consumer Audio and Video Equipment
Yo, mal eben ein komplettes live mitlaufendes MSI AB bzw. RTSS Overlay gefaked um ...guggi4 schrieb:Diese Videos, die @0ssi immer postet, sind auch (vermutlich) Fake:
... ehm um was zu erreichen ? Nichts, weil keine bestimmte Marke als besser hervorsticht.
Mein Tipp: Selbst testen bevor man Fake schreit und sich wegen Unwissenheit blamiert.
Als 12600K(F) Fan gefällt mir sein neuestes Video sehr gut, denn es zeigt, dass ab 1440p
die GPU wichtiger ist als die CPU aber es kann natürlich auch wieder nur ein Fake sein.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Stell dir vor, mit 450k Abonnenten auf YT kann man gutes Geld verdienen, auch ohne dass man die Agenda eines Herstellers verfolgt Eventuell ist DAS die Motivation?0ssi schrieb:ehm um was zu erreichen ? Nichts, weil keine bestimmte Marke als besser hervorsticht.
Ja, natürlich komplett unmöglich so etwas einzufügen0ssi schrieb:Yo, mal eben ein komplettes live mitlaufendes MSI AB bzw. RTSS Overlay gefaked um ...
Z
Zer0Strat
Gast
Mit RTSS + CapFrameX geht das easy peasy. Ist alles Open Source.guggi4 schrieb:Ja, natürlich komplett unmöglich so etwas einzufügen
Ergänzung ()
Hab ich, ist flawed.0ssi schrieb:Mein Tipp: Selbst testen bevor man Fake schreit...
In wie fern sollte das Faken mehr Abonnenten bringen ? Das würde doch nur unnötige Arbeit bedeuten !guggi4 schrieb:Stell dir vor, mit 450k Abonnenten auf YT kann man gutes Geld verdienen, auch ohne dass man die Agenda eines Herstellers verfolgt Eventuell ist DAS die Motivation?
Ein Fake muss doch einen Vorteil gegenüber dem nicht Fake bieten. Das ist doch das Ziel eines Fakes !
Ähnliche Themen
- Antworten
- 92
- Aufrufe
- 15.371
- Antworten
- 182
- Aufrufe
- 27.527
- Antworten
- 1.400
- Aufrufe
- 193.762
- Antworten
- 231
- Aufrufe
- 32.765
- Antworten
- 160
- Aufrufe
- 28.036