ORDINA BLOGT

World Summit AI 2017

  • 27 oktober 2017

Amsterdam was onlangs wereldwijd centrum voor kunstmatige intelligentie. Academici, multinationals alsmede startups en investeerders van over de hele wereld reisden af naar de Gashouder in onze hoofdstad om deel te nemen aan deze vakbeurs.

De laatste innovaties op het gebied van onder andere Machine Learning, NLP, Computer Vision, IoT en Aanbevelingssystemen werden gedeeld door universiteiten (Delft UT, UvA, Cambridge, UC Berkeley, Yale, NYU) en bedrijven (onder andere Google, Facebook, IBM, Intel, NASA, Amazon, Ebay, Alibaba, Netflix, Booking.com en Uber). Ik was een van de gelukkige 2500 aanwezigen en in deze blogpost geef ik een beknopt overzicht van de meest indrukwekkende ontwikkelingen.

Alibaba [Xian-Sheng Hua, Deputy Managing Director of Artificial Intelligence]

Xian-Sheng Hua sprak tijdens zijn presentatie over het City-Brain-project in China’s miljoenenstad Hangzhou (bevolking 9,2 miljoen). Met behulp van straatcamera’s en beeldherkenning wordt hier een model voor verkeerstromen opgezet (voertuigherkenning, voertuigtelling, ongelukherkenning, baanvoorspelling). Met behulp van een netwerk aan stoplichten probeert men een slim systeem voor geautomatiseerd verkeersmanagement op te zetten door de snelheid van het verkeer voor de gehele stad in één keer te optimaliseren. Hiermee is in de stad reeds een gemiddelde snelheidsverhoging van 5% gerealiseerd.

Google [Miles Ward, Global Head of Solutions]

Miles Ward gaf een overzicht van het Google Cloud Platform voor data analytics en machine learning in de cloud met onder meer Big Data batch en stream-oplossingen (inclusief Hadoop/Spark), een intelligent IoT-platform, Cloud NLP, beeldherkenning en machine learning tools.

Daarnaast sprak hij over Google’s Tensor Processing Unit (TPU), een ASIC voor machine learning met een rekenkracht tot 180 teraflops per unit. Toepassingen zijn verbeterde spraakherkenning, natural language understanding (NLU) en beeldherkenning. De TPU’s zijn onderdeel van het Cloud Platform en Google beloofd hiermee on-demand machine learning supercomputing met onder meer Tensorflow.
(Met de recente samenwerking van Amazon en Microsoft en het open-source project ‘Gluon’ lijkt het erop dat deze partijen nu de strijd met Google zijn aangegaan.)Meer info over Google’s TPU: https://cloud.google.com/blog/big-data/2017/05/an-in-depth-look-at-googles-first-tensor-processing-unit-tpu

Last but not least: Google is recentelijk begonnen met het toepassen van deep learning op de optimalisatie van de structuur van neural-networks. Met andere woorden: een neural-network (NN) wat child-NN’s construeert, gebaseerd op de specifieke taak voor het child-NN. De taak van het selecteren van machine learning-modellen voor specifieke oplossingen is nu nog voorbehouden aan mensen met substantiële expertise op dit gebied. Het project loopt onder de naam ‘AutoML’ en moet uiteindelijk de constructie van NN’s automatiseren en breed toegankelijk maken.

Meer info over AutoML: https://research.googleblog.com/2017/05/using-machine-learning-to-explore.html

Airbus [Ronny Fehling, Head of Cognitive Computing and AI]

Ronny Fehling sprak over de implementatie van cognitieve AI op industriële schaal bij Airbus. De doelen zijn productieoptimalisatie, productinnovatie en het verkennen van nieuwe businessmodellen door AI begeleidde besluitvorming op Enterprise-niveau. Concreet werd het voorbeeld genoemd hoe met behulp van AI een zoekmachine in gebruik genomen is, waarmee je productiefouten aan vliegtuigen kunt terugzoeken op basis van verscheidene invoerdatatypes (zoals gescande schadeformulieren en foto’s). Door historische productiefouten inzichtelijk te maken, kun je snel tot een gepaste oplossing voor huidige productieproblemen komen. Uitdagingen voor Airbus zijn hierin het verzamelen en opschonen van data uit verscheidene bronnen op een schaalbare en real-time inzetbare manier.

De slides van deze presentatie: http://www.icas.org/media/pdf/Workshops/2017/16_fehling/AI%20Cognitive%20Airbus%20ICAS%20public%20-%20Ronny%20Fehling.pdf

Ebay [Japjit Tulsi VP Engineering & R.J. Pittman, SVP and Chief Product Officer]

Japijt Tulsi en R.J. Pittman gaven inzicht in hoe Ebay deep learning toepast op gebied van e-commerce. Met name natural-language-understanding (NLU) is een van de innovatierichtingen bij Ebay teneinde de intentie van klanten te achterhalen door de zoekopdracht te analyseren. Ebay tracht klanten die opzoek zijn naar bijvoorbeeld een nieuwe tent niet enkel dit woord “tent” in te laten typen maar een gehele vraag zoals:
“Ik ga dit weekend op vakantie naar X met Y personen en heb een tent nodig”

Hieruit kan door middel van NLU, informatie geëxtraheerd worden over de vakantiebestemming, de vakantiedatum, verblijfsduur en het aantal personen. Vervolgens kan het systeem met behulp van de locatie en verblijfsperiode onder meer de weersvoorspelling/het lokale klimaat ophalen om een toegespitst aanbod alsmede aanbevelingen voor andere producten te kunnen doen.

Netflix [Tony Jebara, Head of Machine Learning]

Bij Netflix ligt de focus vooral op het personaliseren van content door middel van machine learning. Hierbij wordt niet alleen het tonen van relevante films gepersonaliseerd voor de gebruiker, maar ook de individuele afbeeldingen per film worden gepersonaliseerd samengesteld. Daarnaast sprak Tony Jebara over ‘bandit learning’, een manier om nieuwe ML-modellen sneller aan het grote publiek uit te rollen dan bij klassiek A/B-testen.

Zie hier een uitvoerig artikel over contentpersonalisatie bij Netflix: https://medium.com/@teamrework/personalized-content-and-image-selection-at-netflix-a1b3d4bc8851

Uber [Zoubin Ghahramani, Chief Scientist at Uber & Professor at Cambridge]

Een van de meest invloedrijke onderzoekers op gebied van AI, Zoubin Ghahramani, gaf een overzicht van de meest opvallende vorderingen en uitdagingen op gebied van AI. Zijn nuchtere kijk op de technische kant van AI was zeer welkom. Twee hoofdpunten uit zijn presentatie waren:

  • Er is vraag naar geautomatiseerd modelleren, oftewel het modulair/systematisch construeren van machine learning modellen voor een specifieke taak.
  • Er is vraag naar systemen die weten wat ze niet weten. Als voorbeeld noemde Zoubin een zelfrijdende auto die bij slecht weer weet dat zijn sensoren minder betrouwbaar zijn in het detecteren van voetgangers. Gezien het niet mogelijk is om alle situaties waarin deze sensoren minder betrouwbaar zijn van te voren vast te stellen, dient een slim systeem dit zelf te bepalen. Hiervoor is bayesian deep learning volgens Zoubin de volgende stap.

Inofficiële link naar de slides van Zoubin Ghahramani: http://bayesiandeeplearning.org/2016/slides/nips16bayesdeep.pdf