News Moore Threads MTT S80 in Tests: Chinas Gaming-GPU ist auf dem Desktop viel zu durstig

Ayo34 schrieb:
Ein aktueller PC braucht im Idle zwischen 50 und 100 Watt, je nach Konfiguration und Hardware.
Ein aktueller Gaming PC braucht im Idle zwischen 90 und 150 Watt(ohne Monitor), je nach Konfiguration und Hardware.
105W 3080/5900x mit aktiven maximal möglichen Energiesparplan, sonst deutlich höher (zb mit "Windows Balanced"). Ryzen 7000 ab 20W on top
 
Cerebral_Amoebe schrieb:
Das ist die Spähsoftware im Hintergrund
bei Nvidia war es der "Telemetrie Container"

insgesamt begrüße ich es das der Markt mehr Anbieter bekommt, und der Kunde eine größere Auswahl an Produkten hat.

Das mit der Leistungsaufnahme wird mit der nächsten Generation hoffentlich nicht mehr sein, oder vieleicht schon bei dieser, durch ein Bios-update
 
Zuletzt bearbeitet von einem Moderator:
HansDetflefAndi schrieb:
Ein aktueller Gaming PC braucht im Idle zwischen 90 und 150 Watt(ohne Monitor), je nach Konfiguration und Hardware.
105W 3080/5900x mit aktiven maximal möglichen Energiesparplan, sonst deutlich höher (zb mit "Windows Balanced"). Ryzen 7000 ab 20W on top

Mein Messgerät zeigt mir 69 Watt für den PC an. Dabei habe ich 4 SSDs installiert, einige Lüfter und der Rechner befeuert 3 Monitore. Eine 4080 FE verbraucht auch nicht mehr als meine 1070 im Idle.
 
  • Gefällt mir
Reaktionen: Slayn
4080FE ist ja auch effizient und vermutlich auf sehr lange Sicht die seltenste Karte auf dem Planeten, bei solch beschissener P/L. Ampere ist da ganz anders unterwegs...
1070 ist natürlich auch krass sparsam im Idle, so wie eine 2060 auch.
 
Auch wenn ich ein vehementer Gegner des politischen Systems von China bin (Ich kenne das Land gut, habe dort mehrere Jahre gelebt und gearbeitet)...habe ich durchaus Respekt dafür..das sie zumindest sich auf dem Weg machen...sich unabhängiger von anderen Ländern zu machen.
Und da China ja in anderen Zeitdimensionen denkt..plant (長征 / 长征 =Langer Marsch)...werden sie weiterhin da beharlich bleiben..was eigenes zu entwickeln.

Und wir hier so? Nunja.... :rolleyes:
 
Das ist in meinen durchaus ein Achtungserfolg, auch wenn sie natürlich klar hinterher hinken. Die Frage ist auch, ob sie jemals komplett aufholen werden können, ich bezweifle es mangels Zugang zu den modernsten Fertigungsverfahren. Aber dass die Spiele alle fehler- und absturzfrei liefen ist schonmal eine Ansage.

Ganz unabhängig davon ob die in Zukunft vielleicht konkurrenzfähige Karten herstellen können oder nicht, wäre ich trotzdem nicht bereit mir sowas zuzulegen und chinesische Software auf Treiberebene auf mein System zu lassen.
 
Die ist doch nur ein paar Kilometer entfernt... abgesehen macht es immer Sinn Expertise anzuhäufen. Eine Grafikkarte mit Leistung von vor 5 Jahren ist sogar besser als gar keine Grafikkarte, weil die AMIS irgendwas sperren.
 
  • Gefällt mir
Reaktionen: Sam Miles
Mal die Urspüngliche Meldung zu MTT im Kopf: Die Chips werden offensichtlich in 12nm-Prozess hergestellt, Nividia (und auch AMD?) fertigen in 7nm oder kleiner. Bei ähnlicher Komplexität und Chipfläche dürfte das einen Teil der hohen Verlustleistung erklären. Ebenso dürften Treiber nicht unerheblich über die vergleichsweise schwache Performance verantwortlich sein. AMD/NVidia haben Ihre Treiber u.a. auch auf die üblichen Benchmarks hin optimiert. Dann ist auch die Frage, es wurde in DX9 und DX11 getestet, DX12 oder Vulkan fehlen. Wieviel macht hier der Overhead der Schnittstellen aus.

Unabhängig davon ist das für eine seit 2 Jahren existierende Firma höchst beachtlich, ein funktionierendes Produkt auf den Markt zu bringen! Intel sollte sich das für seine Grafiksparte ganz genau ansehen.
 
Raziel-Noir schrieb:
Mal die Urspüngliche Meldung zu MTT im Kopf: Die Chips werden offensichtlich in 12nm-Prozess hergestellt, Nividia (und auch AMD?) fertigen in 7nm oder kleiner. Bei ähnlicher Komplexität und Chipfläche dürfte das einen Teil der hohen Verlustleistung erklären.

Meine GTX1070 ist mit 16nm hergestellt und verbrauch im idle unter 10 Watt und maximal 150 Watt. Allerdings kann man die nm-Prozesse auch nicht 1:1 vergleichen. TSMC 7nm war z.B. deutlich besser als Samsung 8nm. Genauso könnte der "12nm-Prozess" in Wirklichkeit eher ein 20nm+ Prozess sein. Intel schreibt ja auch nur noch Intel7 obwohl das mal 10nm hieß. Alles schwierig einzuordnen.

Am Ende einfach ein erster guter Versuch, gerade wenn man das Intel Debakel miterlebt hat.
 
Wenn es nur darum geht was eigenes zu haben, wie so viele hier schreiben... ein Jodeldiplom wäre sicher günstiger gewesen. :D

Hm, geringe Leistung, zu hoher Verbrauch, dafür aber keine Bildfehler usw. und problemfreie Treiber? Immerhin scheint man Intel schon mal voraus zu sein...

Im Ernst, passt schon irgendwie, und wir im Westen können das erstmal weiter beobachten, weil die Karten auf absehbare Zeit eh nicht bei uns ankommen. Wenn Intel und Moore Threads in drei, vier Generationen insgesamt bei der gehobenen Mittelklasse von nVidia und AMD mithalten können wäre das schon mal was. Bis dahin kostet die x090 7500€ und die x080 6000€, also reichts eh, wenn man mit den x060ern und x600ern mithalten kann, alles andere wird sich eh niemand mehr leisten können.
 
Finde ich nicht so überraschend. Man kann Dinge eben schnell, günstig und richtig machen, aber nur zwei davon gleichzeitig. Die Karte ging relativ schnell und günstig, da wurden eher keine zig Milliarden in die Entwicklung gesteckt.
Zusammen mit der Optimierungsfaustregel, die letzten 10% optimierung brauchen 90% der Zeit (oder so) ergibt sich dann dass logischerweise abstriche gemacht werden mussten. Da man offenbar kein kompatibilitätsbugfest wie Intel hat und es eine sehr frische Entwicklung ist hat man eben an der Performanceoptimierung 'gespart', wobei ich das mal bewusst in Anführungsstriche setzen würde. Nicht priorisiert trifft es vielleicht eher.
Für Kunden ist da nun eher spannend ob man eher in Hardwareoptimierung, oder in Softwareoptimierung gespart hat, denn nur eines davon lässt sich mit Updates verbessern.

Dazu kommt dass der Hersteller doch auch wirtschaftlich (finanziell) motiviert sein dürfte. Nvidia, ATI, Intel und AMD haben auch lange gebraucht um Stromsparmechanismen im idle einzuführen. Wenn man mit begrenzten Mitteln eine neue Grafikkarte bauen will klingt das für mich nach erstmal optionaler Komplexität die man sich im zweifelsfall eher spart um zügig ein funktionierendes und nutzbares Produkt rauszubringen.

Hauptsache die liefern die Effizienz nach mit optimierungen im Treiber und besserer Hardware in späteren Generationen. Also exakt wie es die großen auch handhaben.
Wenn die eher Server mit dauerlast anpeilen und die Spielegrafikkarte ein Nebenprodukt ist verstärkt sich der Effekt nur.

Was mich überrascht ist dass einige offenbar von einem Neueinsteiger im Markt sofort ein voll und ganz Konkurrenzfähiges und ausentwickeltes Produkt erwarten, oder eher an Betrug denken. Ich fürchte auch die meinen das überwiegend ernst. O.o'
 
  • Gefällt mir
Reaktionen: Deckimbal
Fragt sich nur, wer diesen Schrott kaufen soll?
Ich erwarte hier mal keine großen Erfolge.
 
GTX 1060 Leistung mit mehr als der doppelten Speicherbandbreite, 3.2x so vielen ALUs UND 200 bis 400Mhz mehr Takt. Ouchie…
 
HansDetflefAndi schrieb:
Ein aktueller Gaming PC braucht im Idle zwischen 90 und 150 Watt(ohne Monitor), je nach Konfiguration und Hardware.
Nie im Leben braucht ein aktueller Gaming PC so viel Strom im Idle.
Mein PC aus der Signature mit haufenweise RGB, Wasserpumpe, 9xLüfter braucht gerade mal 70-76 Watt im Idle auf Ausbalanciert und ich hab da gar nichts auf stromsparen getrimmt.
Also 90-150 mit Monitor, aber nicht ohne.
 
Bigeagle schrieb:
Zusammen mit der Optimierungsfaustregel, die letzten 10% optimierung brauchen 90% der Zeit (oder so) ergibt sich dann dass logischerweise abstriche gemacht werden mussten.

Richtig. Deshalb ist MT auch viel weiter weg von der Spitze als einige hier gerne glauben wollen.
 
  • Gefällt mir
Reaktionen: thuering
Pizza! schrieb:
Mich würde es nicht wundern wenn es da ein paar Hintertürchen für gewisse staatliche Akteure gibt.
So wie bei Intel mit der ME? oder bei AMD PSP oder Bei Cisco.
oder: https://en.wikipedia.org/wiki/Clipper_chip
oder die UEFI Malware bei Asus und Gigabyte...
Die Chinesen machen das bestimmt nur haben sie sich irgend wie noch nicht erwischen lassen.

Selbst wen die Hardware auf dem stand von vor 10jahren ist und viel Strom braucht
Das ist der eben der preis der Autonomie, Auf welchem stand wäre Europa bei einer Entwicklung?

Schade das "wir" nicht verstehen wie wichtig es ist eigene Entwicklung Forschung und Produktion von Halbleiter im Land zu haben.

Mal sehen wen die entwiklng so weier geht ist mein Nächste CPU hoffentlich RiskV von Hygon oder so und die GPU MTT S5090
 
  • Gefällt mir
Reaktionen: Sam Miles, .fF und konkretor
  • Gefällt mir
Reaktionen: LukS
Pizza! schrieb:
Mich würde es nicht wundern wenn es da ein paar Hintertürchen für gewisse staatliche Akteure gibt.
Was lässt dich darauf schließen? Der Treiberdownload von Google-Drive? xD
 
Zurück
Oben