News Arctic Sound: Details zu Intels diskreter GPU angeblich noch im Dezember

Mehr Konkurrenz kann uns allen (Geldbeutel) nur gut tun. Hoffentlich kommt da denn auch endlich was Gescheites.
 
Mustis schrieb:
EIn Monitor mit Freesync HDR 1000, 144 Hz, 4k und 40-144 Hz Range. Bitte.

Aber warte ich sags dir, es gibt keinen und somit ist deine Aussage purer Unsinn... Ich kann es mit Freesync eben genau nicht. Aber mit fakten hasts ja offensichtlich eh nicht so... brüllender Lüfter. eigentlich kann man sich im selben Zimmer wie der Moni nicht mehr unterhalten ne? :rolleyes:
Das hat nur leider nichts mit FreeSync an und für sich oder dessen Spezifikationen zu tun, sondern ausschließlich damit das die Hersteller kein entsprechendes Gerät mit FreeSync veröffentlicht haben.
Auch ist das G-Sync Modul nicht der reine Scaler, sondern der Chip übernimmt das was AMDs GPUs machen + nvidia "DRM".

Das ein Lüfter für das Modul nötig ist, nungut. Über Lautstärke lässt sich streiten, nicht aber das es eine Fehlerquelle sein kann + Staubsauger und der irgendwann verdreckt.
 
DarkerThanBlack schrieb:
Ist doch das gleiche.
[...]
Softwareseitig sprechen sie diesen VESA-Standard mit Freesync an, was auch ganz locker NVIDIA tun könnte, denn dieser VESA-Standard ist frei nutzbar!

Den fundamentalen Unterschied in seiner eigenen Erklärung, warum A-Sync und FreeSync das gleiche sein sollen, zu erwähnen und es dann nicht bemerken ist schon beeindruckend :p
 
Ansich toll wenn ein 3ter GPU Hersteller mitmischt.
FS wird wohl nur unterstützt da es gratis ist und man ohne eine Sync Unterstützung wohl keine Chance hätte bei Spielern. Würde ich also nicht unbedingt als so toll von Intel ansehen, sondern einfach eine kalkulierte Masnahme.
Und ich will hier nicht den Teufel an die Wand malen, aber gebe zu bedenken, dass Intel durchaus auch bei den Treibern etwas richten kann, dass die GPUs mit einem Intel System besonders gut laufen oder zusammenarbeiten.
Aber mal abwarten, ob die GPU nicht bei erscheinen sofort wieder, zumindest im Spieleberreich, in der Versenkung verschwindet.
 
v_ossi schrieb:
...aber 2020 ist schon noch ein Stückchen weg.

Ich kann mich noch an den Kater von Sylvester 2017/2018 erinnern und nun steht schon fast der nächste vor der Tür, das geht schneller als man denkt ;-)
 
So sehr ich mich daran ergötze, dass Intel im CPU-Segment schwer unter Druck durch AMD geraten ist, so sehr würde ich denen gönnen, im GPU-Segment richtig Fuß fassen zu können. NVidia braucht mehr Konkurrenz als es AMD aktuell ist.
 
Man kann letztendlich nur gespannt sein, welchen Konzept Intel verfolgen wird. Eine Zeit lang gehörte Havok zu Intel, bevor es an Microsoft verkauft wurde. Intel hat auch schon PowerVR für die CPUs lizenziert und letztlich war schon "damals" eine sehr interessante Lösung entwickelt worden, die aber letztlich "nur" in Phi aufgegangen ist. Der Ansatz war aber trotzdem vielversprechend.
https://en.wikipedia.org/wiki/Larrabee_(microarchitecture)

Die Frage wir mit Sicherheit sein, ob man mit neuen Ideen dieses Projekt weiter entwickelt hat, oder ob man schlichtweg die GMA Architektur genommen hat und diese aufbohrt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: lynx007 und fox40phil
Wulfman_SG schrieb:
... naja ein aktiver zweiter würde ja auch reichen ...

PowerVR oder Matrox wären super.

Ich bin mal gespannt, ob Apple irgendwann nur CPUs von Intel anfordert und Ihre eigene Grafikeinheit aus dem Mobilbereich nutzt.
 
ein traum wäre, wenn intel eine graka bringt mit der leistung einer gtx2080/ti zum preis einer vega...

das bleibt aber wohl wunschdenken...
 
  • Gefällt mir
Reaktionen: fox40phil
Sc0ut3r schrieb:
... zum preis einer vega...

wohl wunschdenken...

Aber so was von!

Ich an Ihrer Stelle hätte meine Bedenken über Bord geworfen und AMD GPUs genutzt.
Warum? So stärken sie die Konkurrenz ohne Bangen zu müssen, das AMD in eine Pleite rutscht.
Und auf der anderen Seite kann man dann langsam Know How aufbauen, was über eine iGPU hinweg geht.
 
Shoryuken94 schrieb:
@-Ps-Y-cO-

Intel hatte schon mehrere große Würfe. Ausgeschlossen ist da nichts. Aber aktuell steht Intel ziemlich mit dem Rücken an der Wand. Es steht und fällt mit der 10nm Fertigung. Ohne die werden sie keine großen Chancen haben.

Auch wenn es mir unwahrscheinlich vorkommt: Intel könnte das Die für eine diskrete Gamer-GPU auch bei TSMC oder Samsung fertigen lassen. Vorher friert zwar die Hölle zu, aber das ist der Teufel schon gewohnt und heizt dann mit einem Core i7-8809G, auf dem er das Linux Subsystem unter Windows 10 laufen lässt, ein wenig ein .
 
benneque schrieb:
@A_British_Tar Nvidia liefert doch nur alle 1-2 Jahre eine Steigerung um 20-40%. Wie sollen sie dann innerhalb von 2 Jahren +300% hinkriegen? :D Das sehe ich erst, wenn ich es glaube - also nie.

Also erstens mal, 2-3x sind 100-200% Steigerung. Zweitens, 2020 sind wir bei 5nm. Bei weniger als halber Transistorgrösse ggüber derzeit 12nm ist eine Verdoppelung der Transistoren, und somit Verdoppelung der Shader und Rohleistung, durchaus realistisch.
 
@A_British_Tar

Ich bezweifel das wir 2020 schon die 5nm Massenproduktion sehen. AMD und TSMC gehen davon aus, dass der 7nm Prozess erstmal eine Weile bleiben wird. Nur weil TSMC weiterhin an der "Zukunft" und 5nm entwickelt, heißt es ja nicht das wir da schon in knapp über einem Jahr eine Massenproduktion sehen.

Nach den 7nm bei TSMC kommt dort erstmal 7nm EUV.
 
  • Gefällt mir
Reaktionen: xexex und v_ossi
Und nun? - Wir wissen nun, dass Intel da was in Sachen GPU plant? - Ja und? - Keine Specs, keine Stats, keine Vorserien-Modelle, keine Info von Gamingschieden, die Testmuster bekommen haben, um ihre Ganes darauf anzupassen...
Alles Zukunftsmusik. - Lassen wir uns überraschen. - Im CPU Bereich geht bei Intel grad nicht viel, also versucht man es jetzt mit GPUs.
Ich bin mal gespannt, wie es wird, wenn TSMC 7mn mit hoher Stückzahl an guten Wafern ausspucken kann. - Wenn AMD dann auch GPUs in 7nm auf den Markt wirft, kann das schon einen Leistungsschub bei gleicher Wärmeentwicklung bringen.
Ich habe eher so den Eindruck, dass Intel Angst hat, mittelfristig ein bischen den Anschluß zu verlieren. - Wenn die AMD CPUs in 7nm einschlagen, und auch noch in hoher Stückzahl verfügbar sind, dann weiß ich nicht, ob Intel da bei gleicher TDP in 10 nm mitspielen kann.
Wenn ich mir dann noch vorstelle, dass die Ryzen 3000er Reihe hoffentlich noch ein Stück mehr Leistung pro Kern bringt.....
 
Das kann mir bei aller Liebe keiner erzählen, dass Intel tatsächlich eine Grafikkarte für den kleinen Absatzmarkt "Computerspieler" herausbringt.

Das lohnt sich doch nicht. Der GPU-Absatz ist, nicht zuletzt durch das Ende des Miningbooms, stark gesunken. Intel müsste sich mit den anderen beiden um Stücke des Kuchens streiten, was vielleicht für den Endkunden nett wäre, aber keine goldene Nase bei Intel erzeugt. Am Ende wären die Preise niedrig, aber die Absatzmenge bleibt gleich.

Und was soll das für ein unglaublicher Design-Wurf aus dem Nichts sein, dass sich allein der Gedanke aufspielt.
Mag komplett falsch sein, aber mehr als ein Technologie-Übertrag der OPA-HPC-Karte an die eigene iGPU Entwicklung traue ich dem ganzen nicht zu.

Und wenn wir schon News haben, wie schlecht die Treibersupport-Lage bei AMDs Raven Ridge aussieht, dann glaubt doch auch keiner, dass Intel nun fortan liebevoll Treiber pflegt.
 
Zuletzt bearbeitet von einem Moderator:
Mustis schrieb:
Was auch daran liegt, dass es bis jetzt keinen Freesnyc 2 Scaler gibt, der das liefern kann, was Nvidia hier liefert...

Soviel dazu, das Nvidia nichts entgegenzusetzen hat...

PS: Nicht das der Scaler bei Gsync jetzt fehlerfrei wäre, das ändert aber nichts daran, dass Freesync 2 bis jetzt schlicht nicht das liefert, was Gsync bereits liefern kann.

Ja gibt ja so viele HDR GSync Displays
https://geizhals.de/?cat=monlcd19wi..._NVIDIA+G-Sync+HDR&sort=t&hloc=at&hloc=de&v=e

So zum Vergleich HDR Freesync
https://geizhals.de/?cat=monlcd19wi...AMD+FreeSync+2+HDR&sort=p&hloc=at&hloc=de&v=e

Dass macht 2000€ mehr für nix sorry dafür gibt es bessere Oled TVs oder Samsungs neuen Freesync TV. 😉
 
Trice_ schrieb:
Das kann mir bei aller Liebe keiner erzählen, dass Intel tatsächlich eine Grafikkarte für den kleinen Absatzmarkt "Computerspieler" herausbringt
So klein kann der Gaming Markt für GPUs nicht sein. NVIDIA macht noch immer den größten Teil ihres Umsatzes mit GPUs für Spieler.
 
  • Gefällt mir
Reaktionen: Acedia23
Mcr-King schrieb:
https://geizhals.de/?cat=monlcd19wi..._NVIDIA+G-Sync+HDR&sort=t&hloc=at&hloc=de&v=e

So zum Vergleich HDR Freesync
https://geizhals.de/?cat=monlcd19wi...AMD+FreeSync+2+HDR&sort=p&hloc=at&hloc=de&v=e

Dass macht 2000€ mehr für nix sorry dafür gibt es bessere Oled TVs oder Samsungs neuen Freesync TV. 😉

Jau, da hats einer kapiert. Wir vergleichen HDR 400 Monis mit HDR 1000 Monis... is ja daselbe...

Jetzt geht die selbe Leier los wie damals bei TV mit HD. HD Ready lässt grüßen.
Des weiteren sind die 2 Gsync HDR 4k Bilschirme, die Freesync 2 Bildschirme allesamt QHD bzw. irgendwelche Breitformate, aber kein UHD. Das ist nicht mal mehr Äpfel und Birnen, das ist ne Kiwi mit ner Melone verglichen...

Hier sind wieder echte Experten am Werk.
 
Der Experte bist wohl eher du, der behauptet das G-Sync fortschrittlicher ist, weil es 2 absolut überteuerte 4k UHD G-Sync Monitore mit HDR 1000 gibt. :evillol:
 
  • Gefällt mir
Reaktionen: Zitterrochen und Mcr-King
Zurück
Oben