Notiz GPU-Gerüchte: Neue Spezifikationen zu Intels DG2-Grafikkarten

Trotzdem braucht es den aktuellen Treiber für ein aktuelles Spiel, auch wenn die Spielentwickler sorgfältiger sind.
Die Kartenhersteller werden trotzdem nicht weniger Treiberversionen bringen, weil sie ihre eigenen Bugs auch ständig beseitigen müssen.
Wir drehen uns im Kreise, weil immer gepatched wird.
 
  • Gefällt mir
Reaktionen: Mcr-King
Teralios schrieb:
Nun, die Alus alleine sagen nicht viel aus, sondern wie diese organisiert sind. Merkt man an RDNA2 gegen Ampere.
Das ist mir klar. Teilweise macht RDNA2 durch höheren Takt die geringere Zahl an ALUs wieder wett.
Und dann kommt Intel mit 4.096 ALUs. Ich glaube, bei Intel reicht das für max 3060TI oder 6700 Niveau. Mehr nicht. ^^
Auf der anderen Seite entspricht das der Strategie von AMD und RDNA1. Erst mal Karten für die Mittelklasse und damit die Mehrheit liefern.
 
Zuletzt bearbeitet: (Ergänzung)
GeneralAnal schrieb:
Ich würde mich sehr auf solide Lösungen zwischen der GT1030 und RX5500XT freuen. Dieser Bereich ist nach wie vor alten RX550 bis GT1050(Ti) Karten vorbehalten. Da muss mal ne Aktualisierung her. Ein passiv gekühlter Ampere oder Navi2 Ableger mit max. 75W und ordentlich DP Anschlüssen wäre sofort gekauft.
Da bin ich ganz bei dir! Bin schon länger auf der Suche...

Aber die wenigen 1650er Karten mit max. 75W liegen derzeit bei knapp 300€, sofern sie verfügbar sind....
 
  • Gefällt mir
Reaktionen: Smartbomb und DaBo87
dr. lele schrieb:
Mehr als AMD und Intel bei integrierter Grafik.
Dann hau mal raus. Nicht böse gemeint, aber ich weiß wirklich nicht, was Apple da vorzuweisen hat. Hat der M1 schon integrierte Grafik?
Gamefaq schrieb:
AMD ist bei 7nm TSMC und Nvidia 8nm von samsung und werben damit. Intel immer noch bei 14 bzw. ein paar einzelne Chips sollen 12nm sein. Wie wollen sie da sonnst in Bezug auf Clock vs Hitze = Kühlung konkurrieren?
Ja, ich weiß. Aber 14nm ist immer noch besser, als kein nm. Für den Anfang können die das ja benutzen. Wenn wieder Kapazitäten da sind, kann man ja immer noch ne aufgefrischte Variante von Samsung oder TSMC auflegen
 
Faust II schrieb:
Intel und Ray Tracing... ja neh schon klar...
Warum nicht?

Intel hat schon vor gut 10 Jahren über Raytracing in spielen nachgedacht:
https://techreport.com/news/17641/intel-shows-larrabee-doing-real-time-ray-tracing/

Siehe auch:

Zwar mehr mit "CPU" und nicht GPU aber hey. Ganze Projekte wurden aber mehr oder weniger eingestellt :(.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: icetom
Gamefaq schrieb:
AMD ist bei 7nm TSMC und Nvidia 8nm von samsung und werben damit. Intel immer noch bei 14 bzw. ein paar einzelne Chips sollen 12nm sein. Wie wollen sie da sonnst in Bezug auf Clock vs Hitze = Kühlung konkurrieren?

Intel ist bei 10nm und 12nm gibt es nicht von Intel. Intels 10nm(SF/ESF) entspricht etwa dem 7nm von TSMC. Das Problem sind eher die Kapazitäten. Ende des Jahres kommt Alder Lake in 10nm und Sapphire Rapids Anfang 2022, da wird nichts für eine DG2 übrig bleiben. Leider hat auch TSMC Kapazitätsprobleme, die sich auch auf DG2 auswirken können.
 
  • Gefällt mir
Reaktionen: Xtrasmart
Marcel55 schrieb:
Die DG2-512EU wäre wahrscheinlich die einzige, die für Spieler tatsächlich interessant sein könnte...ich denke mal die wird so zwischen GTX 1660 und RTX 2060 liegen, mal gucken. Vielleicht auch schneller...wer weiß. Oder viel langsamer.
In der Theorie sind da einige interessante Karten dabei. Aber solange zahlreiche Anwendungen mit dem Treibern nicht laufen, wäre ein Release unvorstellbar.
 
Wer sagt denn, dass Intel ihre GPUs nicht bei TSMC fertigen lässt wenn die eigenen Kapazitäten nicht ausreichen? Intel lässt eine Menge bei TSMC fertigen, nur eben nicht die klassischen CPUs und Chipsätze.
 
Wichtig wird sein vernünftige Treiber zu bieten. Die Hardware wird schon passen, die haben sich ja einerseits Know-How eingekauft und andererseits auch selbst einiges an Erfahrung. Bin mal gespannt was da kommt, eine dritte Kraft auf dem Markt wäre schon gut.
 
deo schrieb:
Oder wieso werden die AMD GPUs im laufe der Zeit nach dem Release schneller gegenüber Nvidia?
Also es gab hier mal einen Test auf CB, bei dem das Fazit war das overall 2% Mehrleistung bei Rot UND Grün nach ein paar Treibern sich im Mittel einpegeln.
Es ist oft eher so, dass AMD zu Release einer neuen Architektur größere Probleme mit Einzelfällen hat und diese dann nach fixes gigantische 20-30% Mehrleistung bekommen, allerdings hat genau dieser Wert vorher gefehlt im Vergleich.

Ich freue mich drauf, wenn Intel Grafikkarten für Gamer im Entry und Midrange rausbringt. Allerdings erwarte ich von dem ersten Schuß nicht all zuviel. Denke eher, dass es dann erst in der zweiten oder vielleicht sogar dritten Version dann ein rundes Produkt wird.
 
  • Gefällt mir
Reaktionen: Smartbomb, Balikon, D708 und eine weitere Person
Wer meint, dass Intel Treiber schlecht sind soll sich erst mal das durchlesen:
https://www.gamedev.net/forums/topic/666419-what-are-your-opinions-on-dx12vulkanmantle/5215019/

Many years ago, I briefly worked at NVIDIA on the DirectX driver team (internship). This is Vista era, when a lot of people were busy with the DX10 transition, the hardware transition, and the OS/driver model transition. My job was to get games that were broken on Vista, dismantle them from the driver level, and figure out why they were broken. While I am not at all an expert on driver matters (and actually sucked at my job, to be honest), I did learn a lot about what games look like from the perspective of a driver and kernel.

The first lesson is: Nearly every game ships broken. We're talking major AAA titles from vendors who are everyday names in the industry. In some cases, we're talking about blatant violations of API rules - one D3D9 game never even called BeginFrame/EndFrame. Some are mistakes or oversights - one shipped bad shaders that heavily impacted performance on NV drivers. These things were day to day occurrences that went into a bug tracker. Then somebody would go in, find out what the game screwed up, and patch the driver to deal with it. There are lots of optional patches already in the driver that are simply toggled on or off as per-game settings, and then hacks that are more specific to games - up to and including total replacement of the shipping shaders with custom versions by the driver team. Ever wondered why nearly every major game release is accompanied by a matching driver release from AMD and/or NVIDIA? There you go.
 
  • Gefällt mir
Reaktionen: Smartbomb, lkullerkeks, DynamaxX und 2 andere
deineMudda schrieb:
Wer meint, dass Intel Treiber schlecht sind soll sich erst mal das durchlesen:
Holla die Waldfee
The first lesson is: Nearly every game ships broken. We're talking major AAA titles from vendors who are everyday names in the industry. In some cases, we're talking about blatant violations of API rules - one D3D9 game never even called BeginFrame/EndFrame. Some are mistakes or oversights - one shipped bad shaders that heavily impacted performance on NV drivers. These things were day to day occurrences that went into a bug tracker. Then somebody would go in, find out what the game screwed up, and patch the driver to deal with it. There are lots of optional patches already in the driver that are simply toggled on or off as per-game settings, and then hacks that are more specific to games - up to and including total replacement of the shipping shaders with custom versions by the driver team. Ever wondered why nearly every major game release is accompanied by a matching driver release from AMD and/or NVIDIA? There you go.
Was könnte den Microsoft oder das OpenGL/Vulkan Team machen, dass sich die Spieleentwickler an die Regeln der API halten?
Hört sich ja grausam an, wenn der Grafiktreiber die Fehler vom Spiel ausbügeln muß. Liegt das eher am Spieleentwickler oder an der Engine (falls diese zugekauft wird)?

Allerdings heißt der Artikel im Umkehrschluß, wenn Intel nicht dauerhaft und kontinuierlich ein großes Team für den Treiber ihrer Grafikkarten bereitstellt werden die Karten für Spieler eine Totgeburt.
 
  • Gefällt mir
Reaktionen: Smartbomb
Würde mich wundern wenn der große Chip nur in einer Ausführung kommt. 256bit sowie 512 EU kann gute Mittelklasse sein, aber auch da wird es defekte geben. Also entweder schieben die noch einen mit ~448 EUs nach - Platz wäre im Portfolio zur 384EU-config - oder 512 EU ist nicht der Vollausbau, aber den schiebt Intel erstmal für die Industrie respektive workstations auf den Markt. Man darf nicht vergessen, das ganze kommt trotz Rajas Oberaufsicht noch immer aus der Larrabee/Knight's Corner-landing Ecke. Compute-Power sollte da möglich sein.

Lachen würde ich wenn der Vollausbau als dedizierte mining-Karte kommt...
Aber einen recht großen Chip nur in einer Ausbaustufe zu vermarkten, ist seit Jahren eher unüblich.
 
deineMudda schrieb:
Das ist ein Mythos dass Intel schlechte Treiber hat. Es ist vielmehr so, dass nvidia und AMD in ihren Treibern Anpassungen für viele Spiele haben. Mit diesen Anpassungen wird nicht nur die Geschwindigkeit optimiert sondern auch Fehler des Spiels korrigiert. Im Endeffekt patchen die Hersteller also die Spiele und es sieht dann so aus, als ob die Intel Treiber schlecht wären, weil die Spiele dort nicht fehlerfei laufen. Intel hat die schlechte Presse und die pfuschenden Spieleentwickler lachen sich kaputt.
Technisch korrekt, aber in der Praxis ist damit der Nvidia Treiber trotzdem besser, als ein Treiber bei dem Software abstürzt.

Solange Intel Anwendungen Zertifizierte Treiber liefert, wäre mir da aber eigentlich egal.
 
GeneralAnal schrieb:
Ich würde mich sehr auf solide Lösungen zwischen der GT1030 und RX5500XT freuen. Dieser Bereich ist nach wie vor alten RX550 bis GT1050(Ti) Karten vorbehalten. Da muss mal ne Aktualisierung her. Ein passiv gekühlter Ampere oder Navi2 Ableger mit max. 75W und ordentlich DP Anschlüssen wäre sofort gekauft.
Aber Intel...die erinnern mich immer so an VW. Kampf gegen sich selbst und so.
Ich drücke mal die Daumen.
Genau da fällt eine Nvidia Quadro P620 rein 4x Display Port 40Watt und so schnell wie ne GTX1050
 
  • Gefällt mir
Reaktionen: GeneralAnal
Interessant. Was kann jetze die quattro besser als eine 1050ti? Weil die ja vergleichsweise teuer sind
 
  • Gefällt mir
Reaktionen: Epohwena
Die Quadro P620 ist einfach neuer und Quasi eine überarbeitete Gtx 1050.
War damals mit 150€ aber zu teuer. Da sich der Preis bei der Quadro nicht geändert hat ist Sie jetzt für 150€ witzigerweisse fast schon billig.
Sie kann halt noch en bissi mehr in Richtung CAD aber für mich als Office user und gelegenheits Zocker war nur wichtig speed von ner gtx1050 bei Spielen und das bei nur 40 Watt. Alternativ gibts noch die Quadro P1000 mit 4gb Ram oder eine P400 mit nur 30 Watt für 100€
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: PS828
Ja, richtig. Nur ist bei der Karte der Preis zu hoch. Ich habe den Vorgänger (glaube K620) noch in einem CAD Rechner und die ist mir zu laut. Der VRAM dürfte auch mal gerne größer sein. Am Ende ist es leider "nur" eine Einsteiger CAD Karte mit angeblich besseren Treibern. Mir wäre jedoch ein Passivkühler, 3x DP und zumindest 4gb RAM wichtig. Der Vorteil bei den Geforce Modellen ist die bessere Auswahl bei den Kühlern. Bei den Quadros gibts nur einen für Dauerbetrieb ausgelegten Föhn.
Edit:
Ich seh gerade, dass sich wirklich nichts von der K620 zur P620 getan hat. Nur GDDR5 und die zusätzlichen DP's.
 
Mist, dann hab ich meine 1050Ti letztens zu teuer gekauft. Hab 120 bezahlt. Für den Preis hätte ich dann natürlich auch die Babyquattro nehmen können
 
Zurück
Oben