News 3. Gen. Oryon-CPU: Qualcomm verspricht mehr Leistung und zusätzliche* PC-Marktanteile

Neodar schrieb:
5G benötige ich persönlich nicht am Notebook.
Irgendwie habe ich mich über die Jahre so sehr daran gewöhnt für ein Notebook immer auf WLAN angewiesen zu sein, dass ich Mobilfunk dahingehend schon lange vergessen habe.
Klar gibt es schon ewig Notebooks mit SIM-Karten Slot, primär für Geschäftskunden, aber wenn sich sowas (idealerweise direkt als eSIM) langsam mal standardmäßig auch im Privatkundenbereich durchsetzt, würde ich das als Feature durchaus zu schätzen wissen.

Gerade wenn man unterwegs ist wäre es super überall direkt verbunden zu sein und sich nicht in potentiell unsichere fremde WLANs einwählen zu müssen oder mit dem Handy extra einen Hotspot aufmachen zu müssen.
 
Alles schön und gut, aber solange Windows on ARM nicht vernünftig läuft und die Hersteller nicht dafür entwickeln bringt die Leistung gar nichts.
 
Matthias B. V. schrieb:
@Neodar Akkulaufzeit? Preis? Integration eines kompletten SoCs inklusive 5G / WiFI etc.

Zumal die iGPU nicht schlecht ist aber natürlich kannst es nicht mit einer dGPU vergleichen.
Das einzige was ich als Vorteil sehen könnte wäre der Preis, den Rest kriegt Lunar Lake ähnlich gut bis besser hin (iGPU, Softwaresupport)
 
Temporä schrieb:

Die x86 Vergleichsgeräte sind halt Raptor oder Meteorlake und die sind bei der Effizienz eher Müll.
Da kann die Intel-Fertigung so gar nicht mitgehen.

Hab nen Raptorlake hier mit gigantischem Akku, 16 Effizienzkernen etcblah. und der Akku hält halt doch nur nen Fliegenschiss.

Das würde mit Lunarlake, Arrowlake oder mit AMDs Strix Point gleich ganz anders aussehen.
Daher, im Moment nur schwierig zu vergleichen.

Wie gesagt, so gewaltig sind die Unterschiede da dann doch nicht.
 
Zuletzt bearbeitet:
Die brauchen da nicht an Kernen oder Leistung rumschrauben, die 600 700 Euro Zone ist meiner Meinung ziemlich genau dort wo was brauchbares gesucht wird, da will man aber auch eigentlich schon keine Abstriche machen. Wenn jemand sich ein 700 Euro Gerät anschaut und da irgendwas nicht zügig genug abgearbeitet wird, ist das Thema gleich durch und es heisst nur ARM kannst mit Windows vergessen. Wer aus dem nichts in einem aufgeteilten Markt Marktanteile haben will muss überdurchschnittlich performen und unterdurchschnittlich kosten sonst ist der Anreiz zum wechseln und probieren gar nicht vorhanden. Aber das ist nur meine Sicht der Dinge.
 
BAR86 schrieb:
Das einzige was ich als Vorteil sehen könnte wäre der Preis, den Rest kriegt Lunar Lake ähnlich gut bis besser hin (iGPU, Softwaresupport)
Naja der Softwaresupport ist das einzige Problem und auch hier zeiht sich dann dass Lunar Lake schon am Limit ist während Qualcomm mit besserem Softwaresupport dann nochmal deutlich mehr Spielraum bei Leistung und Effizienz hat und das obwohl man schon jetzt teilweise besser ist!
Ergänzung ()

Neodar schrieb:
600/700 Dollar Notebooks gibts auch mit x86. Also das ist jetzt kein Pluspunkt, sofern die ARM Geräte zu diesem Preis nicht deutlich bessere Leistung/Ausstattung bieten.
WiFi hab ich ebenfalls in einem x86 Notebook. Ob das über einen SoC kommt, oder über ein separates Modul, ist mir als Endkunde herzlich egal. 5G benötige ich persönlich nicht am Notebook.
Bleibt also von den genannten Dingen nur die Akkulaufzeit übrig.
Wieviel besser ist diese denn bei nem ARM Gerät im Vergleich zu einem leistungsmäßig ähnlichen x86 Modell?
Ja nur bieten die 500-700 Dollar Notebooks vermutlich weniger als ein 600-700 Dollar ARM Notebook.

Und das WiFi / Mobiles Netz sind nicht integriert sondern separat was Platz und Effizienz verschwendet. Sie brauchen kein 5G am Notebook aber am Handy ist es dann entscheidend?

Es werden mehrere Stunden Nutzung bei gleicher Leistung sein...


https://www.tomsguide.com/computing...napdragon-x-elite-which-laptop-should-you-buy
 
Zuletzt bearbeitet:
Haldi schrieb:
Hahahahahahhaha
Er hat Gratis in einen Satz zusammen mit Qualcom erwähnt....
Gerade Qualcom verschenkt jetzt gar nichts.
:D:D:D
Ich meinte das auch nicht als echtes gratis, sondern als klassische Abzocke-Geschichte. Natürlich bleiben die Notebooks überteuert. Aber Qualcomm hätte dann halt das 5G-Modem integriert und könnte es jedem zur Verfügung stellen. Es wäre clever, sie hätten ein Alleinstellungsmerkmal. Das Alleinstellungsmerkmal fehlt ihnen aktuell, weshalb sie selbst mit kompetitiven Produkten* nicht gewinnen könnten. Und sogar die haben sie ja bislang noch nicht einmal.
*in so einem Umfeld bräuchte man rundherum überlegene Produkte
 
  • Gefällt mir
Reaktionen: Haldi
Matthias B. V. schrieb:
Sie brauchen kein 5G am Notebook aber am Handy ist es dann entscheidend?
Genauso ist es. Die meisten Nutzer brauchen kein 5G im Notebook.
 
Schonmal ein Schritt in die richtige Richtung, aber der Einstieg in den Notebook-Markt beginnt nicht bei 600 Euro/Dollar sondern bei ca. 300.
Bei 600 Euro ist schonmal die Hälfte des Marktes weg weil die dann was für 400 Euro kaufen.

Wenn die das nicht umsetzen, dann werden sie scheitern.
 
@crustenscharbap: Gute Frage, nächste Frage. War vor 2 Monaten auch überrascht, dass der Preis so schnell herunterging. Oled, 32/1000 GB, X1E-78-100 mit 15" finde für 1000€ gut und hab ihn deshalb für die Frau geholt. Sie hat sich noch nicht beschwert, war dann wohl ein guter kauf.
 
  • Gefällt mir
Reaktionen: crustenscharbap
Immerhin käme Qualcom somit langsam in die nähe, das dann eventuell doch noch ein Surface Go mit ARM folgt. Bevorzuge Lunar Lake, aber das ist viel zu teuer dafür leider.
 
lynx007 schrieb:
Spannende entwicklung, wie ich wieder verstellen muss. Die Vorteile von Risc, scheinen immer mehr Cisc outperformen.
Die Diskussion RISC oder CISC gibts schon ewig, es sind am Ende alles RISC und CISC CPUs. Selbst die vermeintliche CISC Architektur arbeitet als RISC. Selbst ARM hat mit NEON Instructions Extensions und sind damit quasi CISC, die harte Trennung zwischen CISC und RISC gibt es heute so nicht mehr.
lynx007 schrieb:
Wen ich RISC genügend SPeicher zur verfügung stelle, bietet CISC keinerlei Vorteile mehr? Selbst bei der Latenz nicht?
Was hat der Speicher damit zu tun? Und Latenz ist ja nochmal ne ganz andere Geschichte?
lynx007 schrieb:
Oder kann man progneszieren, irgendwann nutzen alle RISC? Wie sieht den die Entwicklung im Mainfraime, aber auch Enterprise aus?
Wie oben schon gesagt gibt es diese Trennung so nicht Mehr, ja in Microcontrollern noch aber in dem was wir CPU nennen schon lange nicht mehr. Heutige CPUs sind vollgestopft mit Erweiterungen und spezialisierten Befehlssätzen das schließt X86 genauso ein wie ARM oder z.B. die POWER Architektur.

Deine Ursprüngliche Frage sollte wohl eher lauten wann ARM CPUs, x86 CPUs ablösen?
Die Antwort, wahrscheinlich nie, Intel und AMD werden die nicht sterben lassen und nach der letzten Generation sieht mach auch das da sogar noch Potenzial drinsteckt. Wenn dann wird es wohl auf eine Mischung des Marktes hinauslaufen.
 
  • Gefällt mir
Reaktionen: guzzisti
Cr4y schrieb:
Das wird ein Gericht entscheiden müssen. Da Risc-v nicht so weit ist, könnte für Qualcom das Motto "lieber arm dran, als Arm ab" gelten :D

Wie weit RISC-V ist, haengt v.a. davon ab, ob es Hardwareentwickler gibt, die sich entscheiden, Hardware mit dem entsprechenden Befehlssatz zu bauen. Qualcomm und MS haetten sich vor vielleicht 2 Jahren dafuer entscheiden koennen, waeren dann aber wohl erst 2 Jahre spaeter auf den Markt gekommen, weil sie ja bis dahin auf der Nuvia-Basis mit der ARM-Architektur gearbeitet haben. Dafuer haben sie jetzt den Salat, aber offenbar ist es ihnen so lieber.
 
crustenscharbap schrieb:
Du kannst dir Gehäuse von Akasa oder Streacom anschauen. Da kanns du dein ITX rein stopfen. Aber mit 8700G und zusätzlichen Gedöns bist du halt auch bei ca 800€. Und der 8700G ist nicht halt so auf Effizienz getrimmt. (20W im Idle vs 5W beim 7840HS)

Also wir haben bei einem Deskmini X600 mit 8700G mit einem Betriebssystem 7W Idle an der Steckdose gemessen, mit anderen Betriebssystemen sind dann keine vernuenftigen Messwerte herausgekommen, also vermutlich noch etwas weniger als 7W. Wenn das bei den von Dir verwendeten ITX-Boards anders ist, liegt das am Board und seinem BIOS, nicht am 8700G.

Ich wünschte mir sooo sehr ein 7840HS oder ein HX370 in einem passiven Gehäuse.

Ich eher mit U, aber ja; was wohl auch geht, aber ein groesseres Gehaeuse (und Geld) braucht, ist der 8700G im Eco mode (35W TDP? PPT?) mit den Noctua NH-P1.

BTT: Das größte Problem ist der Preis. Die Geräte sind zwar gut, aber kosten halt ca 500€ mehr als Apple Geräte. Irgendwie bleibt für mich das Gefühl für „Das ist der Hammer“ aus. Genau das Gefühl habe ich beim neuen M4 Mac Mini. Das Ding ist leise, schnell wie ein HX370 und kostet noch 400€ weniger.

Wenn du mehr als die Minimalkonfiguration brauchst, dreht sich das schnell um. Ein Deskmini X600/8700G-Build von uns hat 64GB RAM und 1TB SSD; damit kamen wir ungefaehr auf die von Dir genannten EUR 800. Bei einem Mac Mini wird's da schon richtig teuer, wenn's den ueberhaupt so zu kaufen gibt.
 
Zuletzt bearbeitet:
mae schrieb:
Also wir haben bei einem Deskmini X600 mit 8700G mit einem Betriebssystem 7W Idle

Ich eher mit U, aber ja; was wohl auch geht, aber ein groesseres Gehaeuse (und Geld) braucht, ist der 8700G im Eco mode (35W TDP? PPT?) mit den Noctua NH-P1.

Die Gehäuse für die NUC sind auch nicht so riesig.

Wenn du mehr als die Minimalkonfiguration brauchst, dreht sich das schnell um.
Interessant. Ich selber habe kein 8700G. Wahrscheinlich waren die 20W Idle Problemchen als der 8700G super neu war. Aber ich bin halt stark am Überlegen ob ich mir die Kiste kaufe. Habe da ein paar Fragen an dich:

Ist der 8700G im Deskmini leise zu kühlen? Bei 50W?
Kann man hier die NPU nutzen für z.B. Bildgeneratoren?
Wie läuft damit Videoschnitt?

Ja, genau. Apple schafft es halt irgendwie dass die PCs dann doch an einer Stelle kacke sind. Will da auch nicht mit drölf Dongle und Adapter arbeiten.
 
crustenscharbap schrieb:
Ist der 8700G im Deskmini leise zu kühlen? Bei 50W?

Der beim Deskmini mitgelieferte Kuehler ist laut. Wir haben zwar einen Thermalright AXP90-X36 dazugekauft (es war uns nicht klar, dass ein Kuehler mitgeliefert wird), haben aber letztlich wegen der einfacheren Montage den mitgelieferten Kuehler verwendet. Die Kiste wandert in den Serverraum, da ist der Laerm egal. Im c't haben sie einen Bauvorschlag mit dem Noctua NH-L9a-AM5 gebracht und da stand, dass das Ergebnis leise ist.

Kann man hier die NPU nutzen für z.B. Bildgeneratoren?
Wie läuft damit Videoschnitt?

Beides nicht probiert. Von irgendwelchen Anwendungen fuer AMD's NPU habe ich noch nichts gelesen, das kommt vielleicht in der Zukunft oder auch nicht.

P.S.: Wieviel idle-Verbrauch der 8700G mit einem anderen Board und Netzteil hat, werde ich in Kuerze sehen, ich habesowas gekauft; aber das RAM laesst noch auch sich warten, daher noch keine Resultate.
 
@sikarr
Ja, hab mich da auch erst gerade mal intensiver beschäftigt und da erst erfahren das es Cisc seit Pentium Pro, als schon eine weile her, eignetlich nicht mehr gibt und schnee von gestern ist. :D Aber man lernt ja nie aus. Dennoch spannend, und das der 486 intels letzter echter Cisc chip war, und dannach RISC Kerne mit einer CISC Emulations schicht.
 
lynx007 schrieb:
@sikarr
Ja, hab mich da auch erst gerade mal intensiver beschäftigt und da erst erfahren das es Cisc seit Pentium Pro, als schon eine weile her, eignetlich nicht mehr gibt und schnee von gestern ist.

Wer Dir das weismachen wollte, behauptet Unsinn. RISC und CISC sind Merkmale eines Befehlssatzes (instruction set, das IS in RISC und in CISC). Der Pentium Pro verarbeitet dieselben Befehle wie der 386/486/Pentium (und ein paar mehr). Wenn der 386 also ein CISC ist, ist der Pentium Pro auch einer. Schon fuer den 486er wurde die Behauptung aufgestellt, dass er RISC sei, weil er mit Pipelining eine Implementierungstechnik verwendet, die zuvor nur RISCs verwendet haben (und die alle RISC-Implementierungen verwendet haben); auch diese Behauptung ist Unsinn, aus dem gleichen Grund. Dazu hat John Mashey eine ausfuehrliche Analyse geschrieben, die das anhand vieler Befehlssaetze. Und seine Kriterien funktionieren auch fuer Befehlssaetze, die er in seiner Analyse nicht beruecksichtigt hat (meistens, weil sie erst danach erschienen sind).
 
Zurück
Oben