Siri in iOS 11

Apple legt uit hoe Siri in iOS 11 steeds menselijker wordt

Apple legt uit hoe Siri in iOS 11 beter klinkt en slimmer reageert. Ook vertellen ze hoe machine learning de spraakassistent meer flexibiliteit geeft.

Apple gebruikt machine learning om te zorgen dat de spraakassistent Siri een natuurlijke stem krijgt, sneller nieuwe talen leert en sneller begrijpt wat je bedoelt. Drie artikelen leggen uit hoe dat werkt.

Siri in iOS 11

Siri steeds slimmer dankzij machine learning

In iOS 11 krijgt Siri een aantal verbeteringen. Met een natuurlijker stem, meer keuze uit mannen- en vrouwenstemmen, realtime vertalingen en een behulpzamer assistent moet je als gebruiker de indruk krijgen dat er echte intelligentie in je iPhone zit. Die indruk is niet zo vreemd, want Apple gebruikt technieken uit de kunstmatige intelligentie om te zorgen dat Siri zich menselijker gedraagt. Ook wil Apple het gebruik analyseren, zodat Siri altijd het beste antwoord kan geven, soms nog voordat je de vraag hebt gesteld.

Siri is meer dan een stem: er gaat een hoop kunstmatige intelligentie schuil achter de antwoorden die je op het scherm krijgt. Hoe dat werkt? Kortgeleden ging Apple van start met een Machine Learning Journal, met wetenschappelijke artikelen over het onderzoek dat ze doen. In drie nieuwe artikelen legt Apple uit wat ze zoal hebben gedaan.

Het gaat om wetenschappelijke onderzoeken over deep learning-technieken, dus je moet wel even doorbijten. Het zijn onderwerpen die Apple later deze week zal bespreken op de conferentie Interspeech 2017 in Stockholm, Zweden.

Apple Machine Learning Journal met Siri-onderzoek

Dit zijn de drie artikelen, waarbij we de technische termen omwille van de duidelijkheid Engelstalig hebben gelaten:

  • Deep Learning for Siri’s Voice: vertelt hoe Apple deep mixture density networks op je toestel gebruikt voor hybrid unit selection synthesis.
  • Inverse Text Normalization: legt uit hoe Siri datums, tijdstippen, adressen en valuta op een natuurlijke manier uitspreekt. Dit werkt ook andersom, dus een gesproken tekst “twaalf september tweeduizendzeventien” verschijnt op het scherm als “12 september 2017”.
  • Improving Neural Network Acoustic Models: vertelt hoe Siri omgaat met variaties in taal, toestel, akoestische omgeving en bandbreedte van het communicatiekanaal en voor de gebruiker toch de indruk moet wekken dat de prestaties altijd hetzelfde zijn.

Je kunt in het eerstgenoemde bijvoorbeeld luisteren naar fragmenten van Siri in iOS 9, iOS 10 en iOS 11, waarin je duidelijk de verbetering van de stem hoort. Duidelijk is wel dat Apple steeds minder gebruik maakt van opgenomen woordjes, die door stemacteurs zijn ingesproken, maar dat er in iOS 11 kunstmatige stemmen worden gebruikt, waardoor de mogelijkheden veel flexibeler zijn. Bovendien gebruikt Siri kunstmatige leertechnieken om de intonatie, stemhoogte, klemtoon en het tempo realtime aan te passen terwijl er ook rekening wordt gehouden met de context.

iOS 11 Siri met nieuwe stemmen

Apple publiceert deze onderzoeken nadat ze eerder kritiek kregen dat de slimste mensen in het vakgebied niet bij Apple wilden werken, omdat het bedrijf zo gesloten is. Bij andere bedrijven mochten medewerkers wel hun werk publiceren en ervaringen uitwisselen met collega’s in het veld. Apple heeft sindsdien besloten om wat meer openheid te geven over de projecten waar ze mee bezig zijn. De onderzoekers op het gebied van machine learning, deep learning, neurale netwerken en andere vormen van kunstmatige intelligentie mogen sindsdien hun werk publiceren. De eerste publicatie ging over beeldherkenning en verscheen in juli.

Suggestie hoe we dit artikel kunnen verbeteren? Laat het ons weten!

Informatie

Laatst bijgewerkt 24 augustus 2017, 9:22
Categorieën Achtergrond, Diensten
Onderwerpen assistent, kunstmatige intelligentie, siri, stembediening

Reacties zijn gesloten voor dit artikel.