Notiz GPU-Gerüchte: Intels erste diskrete Grafik nur mit 96 EUs?

Dachte intel will im HPC Bereich NVIDIA angreifen, da wo es Margen gibt und nicht im low cost Markt sich um Krümel streiten.
 
Fände es garnicht schlecht wenn Intel für etwas Wirbel im Einstiegsbereich sorgen würde.
Unter 130€ (RX 570) gibt es im Moment überhaupt nichts brauchbares zu kaufen. Für viele Schüler und Studenten ist das schon zuviel und das treibt die Spieler dann zu den Konsolen.
Ein auf Kante genähtes Modell (genügend Speicher und Leistung für bis dahin aktuelle Spiele in FullHD + medium Settings bei 60fps) ohne Schnickschnack für unter 100€ wäre doch mal was.

Passend beworben würde man damit schnell einen Fuß ein die Branche bekommen. Eventuell bekommt es Intel ja sogar hin treiberseitig die Leistung der iGPUs der eigenen CPUs mit zu nutzen.
 
foxX schrieb:
Aller Anfang ist schwer! Wird sicherlich einige Jahre dauern, bis Intel sich im Gaming Bereich etablieren kann. Bin allerdings super gespannt wie sich das ganze entwickelt. :)

Ich sehe die Planung gar nicht beim Thema Zocken. "Wir" Spieler sehen uns gerne als Nabel der weiten PC Welt, aber wenn man den PC Markt als Körper ansieht, machen wir vielleicht grade einmal eine Hand aus.

Viel eher wird Intel versuchen wollen, die Grafiklösungen in den Fertig-Rechnern für "Tante Erna & Onkel Otto" zu packen, so daß diese auch in Büros eingesetzt werden, wo man häufig GT 710 / GT 730 oder vergelichbares findet, sofern nicht sogar eine APU von AMD oder die Grafikeinheit der Intel i-Prozessoren genutzt wird.

Wer weiß, vielleicht wollen sie auch in spezielle Bereiche, wo die alte Größe Matrox noch aktiv ist.

Gaming-Grafikkarte wird vielleicht mal kommen, steht aber bestimmt nicht an Platz 1 in der Rangliste bei so einem Vorhaben.
 
  • Gefällt mir
Reaktionen: v_ossi
ThanRo schrieb:
Wenn es nur um Erfahrung im GPU Bereich ginge dann könnte man auch Matrox ins Spiel bringen.
...

Matrox nutzt ja auch nur noch AMD Karten.

Leider ist z.B. PowerVR nur noch mobil unterwegs
 
Tranceport schrieb:
Aber dürften die EUs nicht deutlich besser ausgelastet werden wenn sie eigene TDP, kühlung und v.a. GDDR besitzen?


Was heißt EUs besser auslasten. Es ist schon klar, das eine dedizierte Karte mit eigenem Speicher und eigener TDP, ohne sich das mit der CPU teilen zu müssen, um einiges schneller sein müsste. Aber dass die DG1 eine low end Karte wird, ist auch schon länger bekannt, weil die DG1 bekanntlich auf der Gen12LP Architektur aufbaut und Intel für die Gen12LP einen Vebrauch bis 20 oder 25W schon selber bestätigt hat, und das kann nur low end sein.

Es scheint so zu sein, als wenn die DG1 und TGL GT2 identisch sind bei der GPU. Vielleicht wäre es eine Möglichkeit für Intel mit Tigerlake, die DG2 und TGL GT2 als Multi GPU in einem Verbund rendern zu lassen. Wenn das ohne Profilabhängigkeit möglich ist, wäre das interessant im mobilen Bereich.

DG2 basiert auf der Gen12HP. Hier ist dann auch mit deutlich mehr Leistung zu rechnen, die Frage ist nur wann. Ich vermute erst im Jahr 2021.
 
Leider wird das noch dauern. Ein neuer Konkurrent wäre ja dringend nötig. Ich persönlich kanns nicht erwarten weil die Kombo AMD CPU mit Intel GPU einfach köstlich schräg ist aus heutiger Sicht.
 
papa_legba schrieb:
Kombo AMD CPU mit Intel GPU
Ich kann mir gut vorstellen das des eine dem anderen zwischen funken wird, und dann geht erneut der Glaubenskrieg los. An sich ist der Schritt nur ein logischer, aber warum 1. Nicht schon längst passiert? 2. im Low-Segment? So ein Teil kauft sich keine Sau...

Aber wenn durch die Schote Nvidias günstiger werden, - gerne gesehen.
 
0x8100 schrieb:
https://www.duden.de/rechtschreibung/diskret

2. durch endliche Intervalle oder Abstände voneinander getrennt

BEISPIELE
  • diskrete Halbleiter, Bauteile
  • eine diskrete (nicht integrierte) Schaltung
Das ist in Bezug auf Grafikkarten nicht richtig verwendet, siehe dazu die Definition in Bezug auf Halbleiter/Bauteile und Schaltungen.

Ausgangspunkt ist außerdem das englische Wort „discrete“ und dessen Übersetzung ist nur in mathematischer Bedeutung „diskret“, gemeint sind stattdessen „eigenständig“ oder „separat“.
 
Zuletzt bearbeitet von einem Moderator:
@0x8100 Wenn ich auf Leo.org gehe sehe ich diskret erst als 12te Übersetzung. Davor kommen: Abgesondert, getrennt, einzeln, seperat, diskontinuierlich, eigenständig, für sich alleine stehend.

Edit: Und diskret wird im übrigen normalerweise mit discretely übersetzt, soweit ich mich erinnern kann.

Was soll eine diskrete GPU überhaupt sein? Besonders leise?
 
Zuletzt bearbeitet:
einfach den kontext beachten. wenn ein (elektronisches) bauteil "discrete" ist, dann kann man es mit "diskret" übersetzen und zwar nicht im sinne von "zurückhaltend, dezent" sondern "voneinander getrennt".

edit: discretely ist einfach das adverb von discrete...
 
Nur nicht beim PC. Das ist die "discrete GPU" eben eine abgesonderte, eigenständige Grafikkarte. Allgemeiner Sprachgebrauch und so. Heutzutage wir da ja eher der Duden angepasst als umgekehrt. Und wer verwendet bitte im Alltag diskret für Technik? Niemand.
 
im technischen bereich ist das gang und gäbe? diskrete schaltungen, bauelemente und co. werden überall verwendet?
 
Alltag ist für mich keine Arbeit :P auch wenn es den ganzen Tag dauert. Ich meinte damit den Sprachgebrauch von Otto Normalverbraucher.
 
ich finde, dass "diskret" kein besonderes fremdwort ist, was "otto normalverbraucher" (in beiden bedeutungen) unbekannt ist. und falls doch jemand drüber gestolpert ist, so hat er was gelernt und blamiert sich in zukunft nicht.
 
0x8100 schrieb:
ich finde, dass "diskret" kein besonderes fremdwort ist, was "otto normalverbraucher" (in beiden bedeutungen) unbekannt ist. und falls doch jemand drüber gestolpert ist, so hat er was gelernt und blamiert sich in zukunft nicht.
Schau Dir doch einfach an, wie die meisten Grafikkartenhersteller ihre Texte übersetzen.

Von „diskreten“ Grafikkarten ist da nirgends die Rede.

Und von wegen blamieren: diese Diskussion ist so alt wie dedizierte, separate Grafikkarten.
 
hier geht es nicht um texte der graka-hersteller. du hast den redakteuren unterstellt, dass sie "discrete" falsch übersetzen und das ist nun mal nicht der fall.
 
P220 schrieb:
Also Intels dGPU taugt so viel wie eine Intel iGPU, lohnt sich ja richtig.
Der Moment, wenn deine iGPU besser ist als deine Grafikkarte...

"Intel Inside" - neh öhh "Outside" ermöglichst. 👍
Achso ja stimmt die großen Ryzen haben ja eine IGP.

Achso genau, deswegen ist eine Iris ja soooo viel langsamer als Amd IGP.

Oder warte mal die letzte Iris im 28w TDP I3, ist nur 15% langsamer als die IGP des 2200g mit 65w TDP.
 
KraitES schrieb:
Aber Amd ist genauso wenig besser, es ist ein Duopol

Hätte Amd in Sachen IPC was besserers kannst du sicher sein wären deren CPU max 50€ unter Intel als Consumer Preise.

Deswegen hasse ich Amd z.b. bei GPU eigentlich auch, unter ATI und Nvidia war es ein Consumer Preiskrieg :schluck:

Profitiert hat jeder egal ob Nvidia oder ATI Kunde


Edit:
Ich würde behaupten wäre die GPU Sparte noch bei ATI, gäbe es schlicht keine 2080ti um 1200€
Es gab zwischen nvidia und ATi (als es noch nicht zu AMD gehörte) eine Zeit lang Preisabsprachen... :freak:
 
Zurück
Oben