Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsAuch für Spieler?: Intels erste diskrete GPU erscheint im Jahr 2020
Weg von Xeon Phi und hin zu GPU. Eigentlich nicht ganz unverständlich. Wenn auf den Dingern "zufällig" auch Spiele laufen, umso besser. In Kombination mit Optane DIMMs durchaus eine interessante Variante für Intel-Workstations der Zukunft. Bin dafür.
Vermutlich aber eher aus dem Grund, dass sich die Weiterentwicklung der aktuellen Architektur für High Performance nicht gelohnt hätte. Die Iris-Lösung hat jetzt schon Wärmeprobleme, da kann nur eine neue Architektur folgen
"Fette" IGPs wie SKL mit Iris Pro Graphics 580 (Vorgänger, KBL-G) wird es nicht mehr geben. Solche Produkte wird man in Zukunft aus Zeit und Kostengründen grundsätzlich als MCM realisieren (auch bei AMD selbst, Fenghuang Raven). Da Intel hierfür aktuell keine eigene Lösung (und entsprechend skalierbare Architektur) hat wird die GPU zugekauft. Mittelfristig wird AMDs GPU bei Intel durch eine Eigenentwicklung ersetzt werden. Eine zweite Generation (mit AMD GPU) halte ich aber durchaus für realistisch denn das braucht seine Zeit.
Warum darf es keine Weiterentwicklung der vorhandenen GPU-µArch sein?
Mit 10nm/7nm/5nm/... wird die Die-Größe ein immer größeres Problem, vielleicht lagern sie die eigene iGPU einfach nur aus.
PCIe-GPUs für Gamer kommen von Intel vielleicht nie!
Intels neue Ambitionen bei der Entwicklung diskreter GPUs unter Raja Koduri sollen schon im Jahr 2020 zu marktreifen Produkten führen. Das hat der Konzern mit einem Bild des Ende 2017 von AMD zu Intel gewechselten Managers über Twitter bekannt gegeben. Für den ersten Exascale-Supercomputer in den USA wäre Intel damit bereit.
Und das Abkommen bezieht sich trotzdem auf x86 ISA. Die können damit nicht mirnichtsdirnichts reine GPU-Consumer-Produkte entwickeln.
Weiterhin wurde ca. die Hälfte der ATI/AMD MA zur Ryzen Entwicklung abgezogen, was AMD auch bewusst lancierte. Die hohe Parralelisierungsleistung Ryzens kommt ja nicht von ungefähr. Ebenso die starken RavenRidge.
AMD hat bewusst den GPU-Bereich links liegen lassen, um im CPU-Bereich wieder entsprechend nach vorne zu kommen. Wenn diese Entwickler zur ATI-Sparte zurückkehren, bzw zurückgekehrt sind, werden wir in zwei Jahren dann auch wieder bessere AMD-GPUs sehen. Sprich 2017 -> 2019/2020.
AMD ist schlicht nicht groß genug um gleichzeitig NVIDIA und Intel Paroli zu bieten. Ich befürchte auch, dass wir solche Zyklen künftig häufiger sehen werden.
UND? Was ist jetzt groß der Unterschied, jetzt haben sie den Sack voll mit Patenten und Lizenzen von AMD und Nvidia, dazu noch den Chefentwickler von AMD abgeworben. Also voll die Eigenentwicklung von Intel.
"vor ein paar jahren" war die uvp der "aktuellsten" xyz TI ~600€ (699$ - 2013 z.b.)
sept. 2016 hat mein ram (der in der sig) 167 (oder warns 187?!?) euro gekostet - jetzt sinds knapp 400
2008 hatten wir ein euro-dollar Verhältnis von 1:1,5 - darf man auch nich vergessen ...
am ende ist es zwar teurer geworden, klar, das Drumherum aber auch
Da war doch mal was....
Intel hat doch schon mal viel Geld in den Sand gesetzt und großartig GPUs angekündigt und dann irgendwann das ganze eingestellt. War aber jahrelang in den Medien mit dem Thema.
Einsatzgebiet im Serverbereich halte ich für realistisch. Für mich sowieso verwunderlich, wieso man da nie richtig Fuß fassen konnte. Nach dem letzten Flop mit einer diskreten GPU habe ich mit der Aktion jetzt definitiv nicht gerechnet. Man wird abwarten müssen, für Gamer jedenfalls erst mal uninteressant und im Serverbereich sind AMD und Nvidia bei GPUs sehr starke Konkurrenten. Da sehe ich eher wieder Intel "Deals" machen und "Rabatte" verteilen, wenn man ein Intel-Only System kauft
UND? Was ist jetzt groß der Unterschied, jetzt haben sie den Sack voll mit Patenten und Lizenzen von AMD und Nvidia, dazu noch den Chefentwickler von AMD abgeworben. Also voll die Eigenentwicklung von Intel.
@Blueline56: Schmarrn, 700DM für eine Geforce 3 500Ti sind 350€, und die 7800GTX (so hieß die Karte nämlich) hat vielleicht als UVP 550€ gehabt, gekostet hat die keine 400€ - davon hatte ich sogar ein SLI am Laufen.
Das ist kein Schmarrn wie du so schön schreibst, du kannst 700DM aus 2001 nicht mit 350€ heute gleich setzten, schließlich liegen da 17 Jahre dazwischen, sollte man eigentlich wissen und was die 7800GTX betrifft, ich hatte mir zwei Leadtek WinFast 7800GTX 2005 für etwas über 1100€ gekauft und habe mich ein paar Wochen später geärgert, weil Nvidia eine 7800GTX 512MB nachgeschoben hat. Ich habe beide 7800GTX noch in einen Rechner am laufen und müßte sogar noch die Rechnung haben. Ich hatte die Karten nicht gleich beim erscheinen gekauft, sondern erst ein paar Monate später, keine Ahnung wann du dir deine gekauft hast.
andi_sco schrieb:
Meine Radeon 9700 (noch mit Ati Logo) hatte neu, 2004, 320€ gekostet!
Ich hatte die 9700 Pro und die hatte über 400€ gekostet, allerdings war das Anfang 2003, wenn du für eine normale 9700 in 2004 noch 320€ bezahlt hast, war das ziemlich teuer
Für Intel war der Endkundenmarkt von jeher eher eine Wiederverwendung von teilbeschädigten Wafern. Sie verstehen die Endkunden nicht und wollen das auch gar nicht da dort einfach nicht wirklich viel Geld für Intel zu holen ist. Was nicht ausschließt das Intel ab 2024 auch anfängt Server GPUs irgendwie vom Endkunden recyclen lassen zu wollen.
Hm, wenn Intel eines hat ist es genug Budget für einen langen Atem. Daher würd ich es nicht ausschließen, dass man sich über die Profi Sparten ran tastet (dort sind die Margen höher) und später das Lineup komplettiert.
Neue Architekturen brauchen Zeit und AMD dürfte mit GCN an einem ähnlichen Scheideweg stehen. Nur eben mit 1-5% des Budgets von Intel...