HanneloreHorst schrieb:
@ThirdLife
Vielleicht lag das mangelnde Lese-Text-Verständnis deinerseits daran, dass ich das Ganze mit dem Smartphone auch nicht gerade ordentlich geschrieben habe, ich nehm das also mal auf meine Kappe.
Weiss nicht.
HanneloreHorst schrieb:
Zumindest einen Teil, für deine Arroganz kann ich nichts,
Niveau sieht nur von unten aus wie Arroganz.
HanneloreHorst schrieb:
ich tippe mal auf eine unempathische Erziehung im familiären als auch sozialem Umfeld, so wie eine leichte tendenz zum cholerischen Verhalten aber dicke Interneteier, I feel you.
Du tippst sehr viel anscheinend und offenbar ständig daneben. Aber wenns dir hilft lass ich dir gerne diesen Glauben.
HanneloreHorst schrieb:
Also, es ist ja ganz einfach erklärbar, ich meine natürlich den Leistungsanstieg zur bisherigen Generation.
Nur weil z.B. 4k 20% schneller wird, wird nicht HD 40% schneller, sondern man kann auch Mittel und Wege in einer Architektur schaffen gewisse Auflösungen noch mehr Mittel zur Verfügung zu stellen um schneller berechnet zu werden.
Was nVidia dafür tun muss, die Frage muss ich nicht beantworten, außer ich arbeite bei nVidia,
Ok, also es ist ganz einfach ERKLÄRBAR aber weiter unten ERKLÄRST du dann, dass du das NICHT ERKLÄREN musst ? Und dich darauf hinzuweisen ist - lass mich raten - total unempathisch von mir.
Die "gewissen Mittel" gibts doch jetzt schon ? DLSS und FSR. Wenn du unbedingt in 4K nativ und maximalsten Details zocken willst, dann kostet das halt Leistung. Und die kommt eben nicht aus der Luft gegriffen und dank mystischer Tricks seitens der Hersteller.
Mir scheint dein Weltbild ist ziemlich einfach gestrickt. "Das muss doch irgendwie gehen". Nein. Manche Dinge gehen einfach so nicht. Frag mal die Raumfahrt-Industrie. Man kann eben nicht "mal eben so ganz easy die Erde verlassen".
HanneloreHorst schrieb:
aber ein nVidia Mitarbeiter muss auch nicht die Frage beantworten, wie sein Strom zur Haustür kommt oder das fließende Wasser.
Wenn er sich ein eigenes Haus bauen lassen will sollte er sich durchaus mit der Materie ein wenig befassen.
HanneloreHorst schrieb:
Wenn nVidia also die Grafikkarten größer macht, den Stromverbrauch im gleichen Atemzug exorbitant erhöht, dann kann ich also wertschätzen, was für eine Leistung sie über die Logicboard fließen lassen können aber ich kann durchaus kritisieren, das der Leistungszuwachs in meinen Augen schlecht erkauft ist.
Wie gesagt, sich um das "machbare" zu kümmern, das ist nVidias Aufgabe.
Also möchtest du gerne wieder Planwirtschaft ? Weil hey, ein Trabbi reicht ja, wer braucht schon mehr als das ? Es dürfte klar sein, dass nVidia als auch AMD das ganze Spektrum abbilden werden und nicht nur 500W+ Karten rausbringen. Auch ist es jedem ja möglich die Karten ganz easy mit einem Mausklick selbst zu regulieren.
Ich weiss nicht wie du das machst, aber meine Karte zieht nicht 24/7 ihre 450W. Auch sei darauf hingewiesen, dass selbst Ampere verdammt effizient laufen kann wenn man nicht die letzten 200 Mhz holen will. Die 3080 Ti braucht nichtmal die Hälfte der Power meiner 1080 Ti davor um MEHR Leistung zu holen als diese.
Was soll denn noch passieren ? 500% Mehrleistung bei nur noch 5W Verbrauch zum Preis von 2,99 bei Aldi ? Come on, wake up and get real.
HanneloreHorst schrieb:
Und wenn die Leistungssteigerung durch enorm viel mehr Platzbedarf und Leistungsaufnahme erkauft wird, dann leidet die Effizienz schon enorm, gefühlt wurde dann einfach die alte Architektur aufs doppelte aufgeblasen und dank besserer Fertigung aber nur auf das 1,5 fache der Fläche und "nur" 1,5 fache mehr der Leistungsaufnahme.
Platzbedarf ? Wusste gar nicht dass eine GPU die Grösse eines Schrankes einnimmt in deiner Bude ? Wenn du dich auf die reine Die-Grösse beziehst rechnen wir das doch mal durch:
100% Mehrleistung bei nur 50% mehr Verbrauch wäre doch eine super Steigerung. Es würde bedeuten 50% Mehrleistung bei gleichem Verbrauch. Wann war der letzte Tag an dem du 50% mehr geleistet hast bei gleichen Kosten für deinen Arbeitgeber ? Gabs sicher noch nie. Aber bei anderen wird das einfach mal vorausgesetzt oder ?
AD102 ist im (angenommen) Übrigen keine 1,5x grösser als die aktuelle Gen mit "bis zu 600 mm²" laut Artikel. GA102 liegt bei 628mm².
Hast du den Artikel überhaupt gelesen ? Verstehst du die Zahlen ? Nein ? Warum dann soviele Annahmen und Wünsche ?
HanneloreHorst schrieb:
Das wir aber vor allem im Notebook-Segment das Problem haben, das ohne Ladekabel und selbst mit kaum 4k auf Ultra und ohne DLSS mit Raytracing in den meisten Spielen möglich ist, das zeigt eben doch wie schlecht die Produkte eigentlich sind.
Wozu 4K auf einem schrottigen kleinen Laptop-Display ? Nutzloser gehts kaum noch. Auch die Tatsache, dass dir nicht bewusst ist was du forderst, was das kostet und bedeutet und findest "die bei nVidia sollen das hinkriegen" ohne selbst auch nur für 2cm nachzudenken ist absurd.
HanneloreHorst schrieb:
Dafür kriegt man immerhin eine kleine Heizung und einen Staubsauger der konstant läuft.
Wie gesagt, physikalisch gibt es Limitierungen aber es ist auch nVidias Aufgabe diese Dinge vielleicht mal zu lösen.
Und dann kann man sich das auch gut bezahlen lassen und wird noch gelobt dafür.
Wie gesagt. Sie lösen das ja, du verstehst nur weder die Zahlen, noch die Technik dahinter aber stehst ganz vorne mit deinen Forderungen.