Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Nvidia GeForce GTX 1070: Titan-X-Leistung bei GTX-960-Verbrauch
- Ersteller RobertK
- Erstellt am
- Zur News: Nvidia GeForce GTX 1070: Titan-X-Leistung bei GTX-960-Verbrauch
Kasmopaya schrieb:Ich riskiere mal 2560 x 1080 Pixel bei meinem neuen 35" Monitor(den es noch gar nicht gibt). Da sind saftige 20-30% mehr Rohleistung die die GPU da stemmen muss. Ich kann nicht garantieren das meine GPU da am Ende der Lebenszeit dann keine Rohleistungs Probleme bekommen wird. Sehr weise Entscheidung bei dir mit 16:9 1080p. Jeder der höher geht ist Ruck zuck in der Rohleistungsfalle und kann sich schon mal ans regelmäßige GPU aufrüsten gewöhnen. Natürlich mit Wucherpreisen viel Spaß damit.
Oder man gewöhnt sich dran, im schnelllebigen Hardwaremarkt nicht Unsummen für angebliche Zukunftssicherheit auszugeben.
T
Tyler654
Gast
ampre schrieb:@tyler654
Hitmann hat schlechtere Bildqualität unter dx12 als unter dx11 und stottert unter dx12? Quelle
http://www.pcgameshardware.de/Hitma...Episode-2-Test-Benchmarks-DirectX-12-1193618/
Marcel55
Fleet Admiral
- Registriert
- Nov. 2007
- Beiträge
- 18.010
Wer sagt denn, dass wir die Preise von Highend-Smartphones nicht genau so irrsinnig finden?forumuser05 schrieb:Ich weiß gar nicht, was die ganzen Nörgler hier schon wieder haben ...
1. neue Hardware kostet IMMER etwas mehr am Anfang! Ist ja überall so, Highend-Smartphones fingen früher auch bei 400-450 Euro an, jetzt sind sie bei 700-800 Euro zu finden!
Da ist das gleiche Problem wie bei Grafikkarten, zu erwartende besserung bei neuer Generation bringt auch gleich einen Preisanstieg mit sich.
Zum Glück aber nicht ganz so absurd wie bei den Grafikkarten, die Smartphones pendeln sich extrem schnell ein, die Grafikkarten bleiben lange teuer.
Tyler654 hat die Problematik eigentlich schon recht gut genannt, dem ist eigentlich nichts mehr hinzuzufügen.
Natürlich kann ich nachvollziehen, dass einige Bereit sind, den Preis zu zahlen...wenn sie zu wenig für ihr Geld arbeiten müssen, bitte, nur zu. Oder wenn sie meinen, es wäre unbedingt notwendig.
Aber alle, außer nVidia, haben dadurch keinen wirklichen Vorteil.
Das einzige, was man vielleicht noch nennen kann, wäre die immer höhere Komplexität der Architekturen, u.a. einer der Gründe, warum es bei CPUs derzeit so schleppend vorran geht.
Aber, auch dies ist bei Pascal absolut ungerechtfertigt, im großen und ganzen haben wir hier nicht viel mehr als einen shrink von Maxwell auf 16nm mit ein paar neuen Features. Großartige Ingenieursleistung
(Gut, ich selber würde es wahrscheinlich auch nicht besser hinkriegen...aber, die verdienen ihr Geld ja so oder so damit).
Ich hoffe nur, dass AMD mit Polaris dem ein Ende setzen kann und mit schnellen, günstigen Karten auftrumpft die dabei auch noch verdammt effizient sind.
Für mich als R9 290 Besitzer (die auf R9 390 Niveau läuft) würde sich ein Wechsel dahin natürlich nicht lohnen, aber meine Karte rennt noch ganz gut, ich muss mich also in Geduld üben.
Alle, die jedoch noch Tahiti, Kepler oder niedriger haben, könnten hier jedoch passable Karten finden.
Und ob der mit einer GTX1080/2 aka 1060 gedeckt ist sei mal dahingestellt.
Gehen wir mal davon aus, dass die 1060 ca. 55% der Leistung einer 1080 hat, dann finden wir uns ziemlich genau im Bereich der GTX970 und R9 390.
Das wäre für ~200€ ein vielleicht gerade noch so akzeptabler Deal. Eine 1060ti die sich GTX980-Niveau bewegt für 250€, das wäre ein Deal.
Chismon
Admiral
- Registriert
- Mai 2015
- Beiträge
- 8.483
Kasmopaya schrieb:Da sind saftige 20-30% mehr Rohleistung die die GPU da stemmen muss. Ich kann nicht garantieren das meine GPU da am Ende der Lebenszeit dann keine Rohleistungs Probleme bekommen wird. Sehr weise Entscheidung bei dir mit 16:9 1080p. Jeder der höher geht ist Ruck zuck in der Rohleistungsfalle und kann sich schon mal ans regelmäßige GPU aufrüsten gewöhnen. Natürlich mit Wucherpreisen viel Spaß damit.
Naja, wenn ich mir die Benchmarks zum GTX 1070 Test auf PCGH anschaue, liegst Du (auch wegen der 12 GB) mit der Titan X noch ziemlich gut auf 1440p/WQHD, solange Du nicht auf 4K/UHD schielst. Ich gehe aber davon aus, dass letzteres vor Navi oder Volta Chips eh kein Thema für Dich ist. Schade, dass The Division und Shadows of Mordor nicht getestet wurden, aber Crysis 3 ist ja generell schon immer noch ein ganz guter Brocken nach all den Jahren.
Ja, der 16:10 (27" Dell) Monitor den ich schon eine Weile habe wird noch ein ganzes Weilchen auf 1200p laufen müssen, aber besser als jedes Jahr Unmengen an Kohle in Grafikkarten zu investieren die ein halbes Jahr später schon fast wieder altes Eisen sind, weil es immer höher (Auflösungen) und besser (Leistung) gehen muss/soll, unter steigenden Preisen (mit z.T. Minimalst(-speicher-)Ausstattung), versteht sich.
Tyler654 schrieb:
Ok danke. Der Grafikunterschied ist gering dafür wird aber die Cpu massive entlastet. Dx12 wird sehr wichtig werden für zukünftige Spiele. Gerade für Strategie und Open World.
jbauer
Lt. Junior Grade
- Registriert
- Juni 2014
- Beiträge
- 404
Das ist jetzt wessen Schuld?ampre schrieb:Amd kann bis jetzt noch nicht seine Shader auslasten.
Für DX12 brauchst du momentan zwingend Win10, das hat aber nur einen Verbreitungsgrad von <50%, weniger als Win7. Dazu kommt der mit 18% geringe Marktanteil von AMD. Also warum sollte ein Spieleentwickler jetzt knappe Resourcen darauf verschwenden, um max. 9% seiner potentiellen Kunden eine Extrawurst zu braten? Zumal AC auch den Ruf hat, sehr aufwendig und kompliziert zu sein.Das wird sich mit Dx12 ändern. Das sieht man auch jetzt schon und zurzeit wird noch nicht mal Async Compute genutzt. Sie brauchen Async Compute um alle Shader auszulasten. das ist auch das Problem von Amd. Sie müssen mit Ihrem geringen Marktanteil genug Programmierer überzeugen Async Compute zu nutzen.
Das Problem ist halt, das AMD sich weigert, ihre Treiber auf den Stand der Tchnik zu bringen und diese lieber vergammeln lässt.
Kannst du denn mit aktuelleren Quellen dienen? Wenn nein, dann muss man halt nehmen was man hat.BookerDeWitt schrieb:Der werte Herr BWL-Student macht also den Fehler und setzt auf Schätzungen von 1 bis 2 Jahren, auf die er dann eine sogenannte "Argumentation" aufbaut? Lernt man denn nicht, dass die Aktualität der Quellen essentiell ist?
Sollte... Hast du irgendeinen Beleg, der deine Annahme stützt?Yields bei einem bereits seit einem Jahr laufenden Prozess, ob aufgrund von Waferschäden oder Fertigungsproblemen sollten bei einem 300mm^2 Chip immer noch deutlich besser sein als bei einem 600mm^2-Chip in 28nm.
Wenn die angebliche Preiserhöhung tatsächlich überzogen ist, werden die Nvidia Karten ja alle wie Blei in den Regalen liegen bleiben und verstauben. Niemand wird sie kaufen. Naja, schauen wir mal wie es in drei Monaten aussieht.Dennoch sehen wir überzogene Preiserhöhungen.
Luxmanl525
Admiral
- Registriert
- Mai 2007
- Beiträge
- 9.147
Hallo zusammen,
also wenn es sich bewahrheitet, daß die GTX 1070 in etwa auf dem Leistungslevel einer Titan X / GTX 980 Ti liegt bei ähnlichem Verbrauch einer GTX 960, dann wäre das schon ein ziemlicher Hammer. Aber leider sind mir 500 € gleichwohl zuviel. 400 wären noch vertretbar aus meiner Sicht für mich. Na ja, dann warte ich eben noch bis Ende des Jahres, bis AMD Konkurrenztechnisch aufschließt und die Preise hoffentlich wieder etwas Verbraucherfreundlicher werden.
So long...
also wenn es sich bewahrheitet, daß die GTX 1070 in etwa auf dem Leistungslevel einer Titan X / GTX 980 Ti liegt bei ähnlichem Verbrauch einer GTX 960, dann wäre das schon ein ziemlicher Hammer. Aber leider sind mir 500 € gleichwohl zuviel. 400 wären noch vertretbar aus meiner Sicht für mich. Na ja, dann warte ich eben noch bis Ende des Jahres, bis AMD Konkurrenztechnisch aufschließt und die Preise hoffentlich wieder etwas Verbraucherfreundlicher werden.
So long...
M
Moriendor
Gast
Luxmanl525 schrieb:Aber leider sind mir 500 € gleichwohl zuviel. 400 wären noch vertretbar aus meiner Sicht für mich. Na ja, dann warte ich eben noch bis Ende des Jahres, bis AMD Konkurrenztechnisch aufschließt und die Preise hoffentlich wieder etwas Verbraucherfreundlicher werden.
An die €500 sind nur für die ab 10.06. erhältliche Founder's Edition zu erwarten. Die Ende Juni erwarteten Custom-Modelle sollten deutlich darunter liegen und den €400 nahe kommen. Vielleicht nicht gleich in den ersten Tagen (Stichwort early adopter "Deppenzuschlag" ), aber nach ein paar Wochen, wenn sich die Preise etwas ausgeschüttelt haben, dann schon.
t3chn0
Fleet Admiral
- Registriert
- Okt. 2003
- Beiträge
- 10.266
Also bis jetzt zeigen die Tests doch eigentlich alle, dass die 1070 wirklich als FE zumindest auf 980Ti und TitanX Stock Niveau ist. Manchmal ist die Karte etwas schneller, manchmal etwas langsamer.
Im Schnitt ist sie aber gleich schnell, bei weniger Verbrauch, mehr Features und gleichem Preis (eher weniger) wie eine 980Ti.
Kommt also gut hin mit der Leistung. Ich finde die Karte gut.
Im Schnitt ist sie aber gleich schnell, bei weniger Verbrauch, mehr Features und gleichem Preis (eher weniger) wie eine 980Ti.
Kommt also gut hin mit der Leistung. Ich finde die Karte gut.
Darkscream
Fleet Admiral
- Registriert
- Feb. 2010
- Beiträge
- 17.542
Ich habe wirklich keine Ahnung wie ihr das alle so seht... klar, kleinere Strukturgrößen weniger kosten (das dies nicht mehr stimmt ist dabei egal) - Grafikkarten bekommen immer mehr ausführende Einheiten und immer mehr Ram, wobei letzterer gerade teurer wird weil er neuer und schneller ist (auch egal) - eine Inflation und eine zu unseren Gunsten böse Kursschwankung haben wir auch gehabt ( sowieso Egal, was macht das schon).
Vergleicht man jetzt die Leistung (natürlich nur in Full HD, weil es sonst nicht vergleichbar wäre) von einer GTX 570 welche bei erscheinen 350€ gekostet hat mit einer GTX 1070, welche wohl um die 500€ kosten wird, kommt eine Leistungssteigerung von gut 300% zusammen (für ~42% Aufpreis).
Gehe ich jetzt bei CPUs von einem 2600K aus, der fast gleichzeitig zur GTX570 erschien und ~250€ gekostet hat und bräuchte ich heute eine 300% schnellere CPU würde bestenfalls ein Core i7-6950X in Frage kommen, welcher glücklicher weise auch wieder fast zeitgleich zur GTX 1070 erscheint (für 500% Aufpreis).
Da man in die GPUs ja auch immer mehr ausführende Einheiten und Ram bekommen bin ich mal frech und behaupte CPUs müssten in dem Fall mehr Kerne bekommen - Strukturverkleinerungen hatten diese schließlich genau so.
Wieso motzen jetzt alle auf Nvidia rum? Deren Preise sind schließlich nur um 42% gestiegen für 300% mehr Leistung - Intel hat jetzt das Kunststück fertig gebracht und verlangt für diese Steigerung gute 500% mehr (ist ja nur mehr als das 10 fache ).
Sicher könnte ich auch einen 5820K als Vergleich nehmen, dieser hat dann eben nur ~200% mehr Leistung bei 48% mehr an Kosten.
Und warum ist Nvidia jetzt das unsagbar Böse und Intel übertreibt es nur ein wenig?
Und warum sollte das nicht vergleichbar sein?
Vergleicht man jetzt die Leistung (natürlich nur in Full HD, weil es sonst nicht vergleichbar wäre) von einer GTX 570 welche bei erscheinen 350€ gekostet hat mit einer GTX 1070, welche wohl um die 500€ kosten wird, kommt eine Leistungssteigerung von gut 300% zusammen (für ~42% Aufpreis).
Gehe ich jetzt bei CPUs von einem 2600K aus, der fast gleichzeitig zur GTX570 erschien und ~250€ gekostet hat und bräuchte ich heute eine 300% schnellere CPU würde bestenfalls ein Core i7-6950X in Frage kommen, welcher glücklicher weise auch wieder fast zeitgleich zur GTX 1070 erscheint (für 500% Aufpreis).
Da man in die GPUs ja auch immer mehr ausführende Einheiten und Ram bekommen bin ich mal frech und behaupte CPUs müssten in dem Fall mehr Kerne bekommen - Strukturverkleinerungen hatten diese schließlich genau so.
Wieso motzen jetzt alle auf Nvidia rum? Deren Preise sind schließlich nur um 42% gestiegen für 300% mehr Leistung - Intel hat jetzt das Kunststück fertig gebracht und verlangt für diese Steigerung gute 500% mehr (ist ja nur mehr als das 10 fache ).
Sicher könnte ich auch einen 5820K als Vergleich nehmen, dieser hat dann eben nur ~200% mehr Leistung bei 48% mehr an Kosten.
Und warum ist Nvidia jetzt das unsagbar Böse und Intel übertreibt es nur ein wenig?
Und warum sollte das nicht vergleichbar sein?
Zuletzt bearbeitet:
Generell hätte ich zumindest gerne mal gesehen, was ein Big Chip für eine Leistung bringt, bevor ist 600-700€ für einen Performance Chip bezahle.
Wenn das geschätzt 400-500mm2 wird, ja dann dürfte es alleine schon aufgrund der Anzahl an vorhandenen Shadern deutlich mehr als +10% werden. Und auch wenn man sie nicht so hoch takten kann.
Dafür dürfen dann auch 600-800€ verlangt werden, aber nicht für obere Mittelklasse. Und wenn ich mir ankuck was bei GP104 mit Speicherübertaktung so geht, gehe ich mal davon aus dass ein 384 Bit SI oder gar HBM auch deutlich zukunftsicherer werden dürfte. Vor allem mit nicht zu knausriger Anzahl an Chips.
Die 1070 wird knallhart in die Bandbreitenfalle tabsen. Das Verhältniss Rohleistung zu GRAM Bandbreite
passt meines erachtens nicht so gut zusammen.
Aber wie wir NV so kennen werden es wohl mindestens 1200€ beim grossen Pascal, für nen Shrink schön frech.
Ich hoffe AMD geht mit den Vegas nicht, also zumindest mit dem 11er, nicht zu weit über die 600-700€ raus.
Das dürfte auch gut Wumms haben.
Und ich geh mal davon aus, dass AMD für einen 1080er Konkurrenten, aka Vega 10 490(X) keine sechshundert Schleifen aufrufen wird. Und da die 1080er ja schon draussen ist, weiss man ja auch mit wem man sich anlegen kann, in nem halben Jahr.
Also wer warten kann, kann nur gewinnen. Denn Polaris und Vega sind nicht nur 1,5x Shrinks mit neuen Softwaretricks. Das sind wohl auch neue Architekturen.
Ich werd mir wohl in der Zwischenzeit ne süsse Polaris kaufen und der Dinge harren die da kommen
mögen, meine 6970 muss langsam raus.
Und auch die Preise von GP104 werden sich durchs Warten sicher irgendwann nach unten bewegen.
Wenn das geschätzt 400-500mm2 wird, ja dann dürfte es alleine schon aufgrund der Anzahl an vorhandenen Shadern deutlich mehr als +10% werden. Und auch wenn man sie nicht so hoch takten kann.
Dafür dürfen dann auch 600-800€ verlangt werden, aber nicht für obere Mittelklasse. Und wenn ich mir ankuck was bei GP104 mit Speicherübertaktung so geht, gehe ich mal davon aus dass ein 384 Bit SI oder gar HBM auch deutlich zukunftsicherer werden dürfte. Vor allem mit nicht zu knausriger Anzahl an Chips.
Die 1070 wird knallhart in die Bandbreitenfalle tabsen. Das Verhältniss Rohleistung zu GRAM Bandbreite
passt meines erachtens nicht so gut zusammen.
Aber wie wir NV so kennen werden es wohl mindestens 1200€ beim grossen Pascal, für nen Shrink schön frech.
Ich hoffe AMD geht mit den Vegas nicht, also zumindest mit dem 11er, nicht zu weit über die 600-700€ raus.
Das dürfte auch gut Wumms haben.
Und ich geh mal davon aus, dass AMD für einen 1080er Konkurrenten, aka Vega 10 490(X) keine sechshundert Schleifen aufrufen wird. Und da die 1080er ja schon draussen ist, weiss man ja auch mit wem man sich anlegen kann, in nem halben Jahr.
Also wer warten kann, kann nur gewinnen. Denn Polaris und Vega sind nicht nur 1,5x Shrinks mit neuen Softwaretricks. Das sind wohl auch neue Architekturen.
Ich werd mir wohl in der Zwischenzeit ne süsse Polaris kaufen und der Dinge harren die da kommen
mögen, meine 6970 muss langsam raus.
Und auch die Preise von GP104 werden sich durchs Warten sicher irgendwann nach unten bewegen.
Zuletzt bearbeitet:
M
Moriendor
Gast
Smagjus schrieb:Was ist eigentlich mit CB Test? Ist der nicht rechtzeitig fertig geworden oder gab es kein Sample?
Das NDA für die 1070 endet erst heute, am 30.05. (vermutlich wieder 15:00 Uhr).
Chismon
Admiral
- Registriert
- Mai 2015
- Beiträge
- 8.483
Darkscream schrieb:Und warum ist Nvidia jetzt das unsagbar Böse und Intel übertreibt es nur ein wenig?
Und warum sollte das nicht vergleichbar sein?
Weil nVidia es genauso machen würde, wären diese schon in der gleich Lage wie Intel gegenüber AMD (also Quasi-Monopolist). Glücklicherweise ist das noch nicht so, auch wenn nVidia daran auf Hochtouren arbeitet.
Somit kann, wie schön von Dir aufgezeigt, es nicht im Interesse eines vernünftig denkenden Konsumenten sein, dass man sich einem nVidia (Preis-)Diktat unterwirft und die über Jahre praktizierte, rücksichtslose Politik noch per Kartenkauf unterstützt, wenn die Konkurrenz von AMD im Großen und Ganzen schon seit Jahren ein besseres Preis-Leistungsverhältnis neben besserer Kundenpolitik bietet.
So einfach ist das .
M
Moriendor
Gast
modena.ch schrieb:Generell hätte ich zumindest gerne mal gesehen, was ein Big Chip für eine Leistung bringt, bevor ist 600-700€ für einen Performance Chip bezahle.
Du kannst dir das ja anhand der bislang durchgesickerten und durchaus mit sehr hoher Wahrscheinlichkeit zutreffenden Daten für GP-102 selbst ausrechnen.
Das werden definitiv mehr als 10% sein. Eher so 30% und mehr. Die Frage ist wieviel extra Schub HBM2 wohl noch bringt (GTX 1080 profitiert ja direkt von GDDR5X OC).
Zuletzt bearbeitet von einem Moderator:
Smagjus
Rear Admiral
- Registriert
- Feb. 2011
- Beiträge
- 6.133
Merkwürdig, dass mindestens ein halbes Dutzend Seiten das NDA zu brechen scheinen. Eventuell gab es da Unklarheiten?Moriendor schrieb:Das NDA für die 1070 endet erst heute, am 30.05. (vermutlich wieder 15:00 Uhr).
BookerDeWitt
Lieutenant
- Registriert
- Jan. 2014
- Beiträge
- 1.017
Hardware_Hoshi schrieb:In der Produktion ist die erste / neue Fertigung immer teurer. Besonders bei einem Fertigungsverfahren ist das eine definitive Gegebenheit. Am Anfang sind die Kosten besonders hoch. Je höher die Stückzahlen steigen und die Produktionsmaschinen ersetzt und angespasst werden, desto günstiger kann man fertigen. Das sind ganz natürliche Produktionsvorgägen, dafür braucht man weder Quellen noch Argumentationen. Es ist überall dasselbe! Weiß man als 0815-Forist natürlich nicht unbedingt
Das mag stimmen, nur was ändert das an der Tatsache, dass du deine Annahme aufgrund von 1-2 Jahre alten Aussagen zu Preisen triffst? Zumal die ersten 16nm-Wafer eh schon seit Ewigkeiten dank Apple verwendet werden, weshalb TSMC schon seit einem Jahr grundsätzliche Erfahrungen zu 16nm oder eigentlich 20nm Fin-Fet sammeln konnte.
Deine Spitze hinsichtlich meiner angeblichen "Unwissenheit" solltest du dir übrigens sparen, denn wenn ich ein 0815-Forist bin, dann bist du auch ein 0815-Forist, der nur seine Beiträge nicht belegen kann.
Hardware_Hoshi schrieb:Im Vergleich zu 28nm sind die Preise definitiv höher. Bei etwa doppelten Kosten kostet die kleine Fertigung der ~300mm² dann in etwa so viel wie die 600mm² der 28nm. Die Preise gelten für Wafer. Je mehr funktionsfähige Chips Nvidia herausholt, desto mehr können sie verdienen.
Die Yieldrate macht hier den entscheidenden Unterschied. Du machst den Fehler und setzt sie als "hervorragend" gegeben hin. Normalerweise gehen die von schlecht zu hinnehmbar zu .... lange später .... gwünscht. Das geschicht nicht von heute auf morgen!
All deine Aussagen basieren immer noch auf deiner unbestätigten Aussage, dass 16nm-Wafer doppelt so teuer wie 28nm-Wafer sind. Diese Aussage ist veraltet.
Zu der Yield-Chose: Du weisst, dass mit größerer Chipgröße a) die zu bekommenden Dies und b) die Wahrscheinlichkeit, dass diese beschädigt sind signifikant, an sich sogar potenziell steigt? Man bekommt mit 16nm einen angenommen doppelt so teuren Wafer, hat aber viel mehr Chipausbeute bei gleichzeitig geringerem Ausschuss.
Starkes Stück mir Unerfahrenheit vorzuwerfen.Hardware_Hoshi schrieb:Hier spricht deine Unerfahrenheit. Nvidia verkauft die P100-Teslas zu Premiumpreisen für die Industrie. Ansonsten wäre diese Chipart nicht produzierbar. Am Anfang der Produktion die größte Ausbaustufe zu bringen ist finanzieller Selbstmord.
Darf ich denn dann dir eine mangelnde Textverständnis ankreiden?
Mir ist klar, dass GP100 momentan für ~10.000$ gehandelt wird. Nur wird er momentan schon produziert, während nVidia dies damals mit dem GK110 einfach aus technischer, nicht wirtschaftlicher Sicht (die eh anscheinend die einzige Sicht ist, auf die du dich beschränkst) einfach nicht möglich war. Oder weichst du meinen Argumenten etwa absichtlich aus und streust Strohmänner um zu trollen? Bedenke, dass CB sich bereits von anderen Usern, die ähnliches taten getrennt hat (SuddenDeathSgt).
Hardware_Hoshi schrieb:(Der Rest deines Beitrags ist mal wieder total am Thema vorbei!)
Wohl eher nicht, es zeigt nur, mit welchem zweierlei Mass du misst, wie einseitig du schreibst und argumentierst und wie befangen du bist. So schwer es dir fällt: Objektivität zu wahren ist die wahre Kunst und danach sollte eine studierte, gelehrte Person streben. Wenn mein Anhängsel OT war, dann war es deins von Anfang an aber auch, schliesslich hat AMD hier nichts mit dem Thema zu tun (vor allem nicht der angebliche "Betrug", zu dem du keine Argumente bringen kannst )
Ähnliche Themen
- Antworten
- 628
- Aufrufe
- 98.287