Smart Speakers: Nicht ohne den persönlichen Assistenten?
Von Franziska Tretter
Smart Speakers sind gerade nicht nur auf internationalen Events wie der SXSW oder den Radiodays Europe ein vieldiskutiertes Thema, sondern auch beim fünften Media Date des MedienNetzwerk Bayern. In zwei Impulsvorträgen berichteten Wolfram Tech (BCI) und Silvia Bormüller (Unicorns in Tech) über den Status Quo und mögliche Zukunftsszenarien mit Voice Assistents.
Was die „Renaissance des Wortes“ für Radiosender bedeutet
Wolfram Tech, Senior Consultant und Gesellschafter bei BCI, startete seinen Vortrag mit einer zunächst düster scheinenden Prognose: „Radio verliert, wenn man sich die Digitalisierung anschaut, schon ein bisschen an Bedeutung.“ Dies werde sich aber wieder ändern. Die Ära des Smartphones, so der Experte, neige sich dem Ende zu. Weg vom Wischen und Tippen, hin zu Stimmbefehlen: #MobileFirst wird zu #VoiceFirst.
Einen großen Vorteil von Smart Speakers wie Alexa oder Google Home sieht Tech darin, dass die künstliche Intelligenz des Geräts ein direktes, eindeutiges Ergebnis liefert – für ihn ein Fortschritt gegenüber der Suche auf dem Bildschirm, bei der die Nutzer mit mehreren Ergebnissen konfrontiert sind. Eine Auffassung, die nicht alle Teilnehmer des Media Dates teilten: Bestehe nicht die Gefahr, die eigene Entscheidungsfreiheit aufzugeben? Und wie stehe es um die Sicherheit der Daten? „Wir zahlen mit unseren Daten, natürlich“, bestätigte Tech. Doch, so betonte die zweite Impulsgeberin Silvia Bormüller, Münchner Botschafterin der Unicorns in Tech, „Auch das Smartphone macht nichts anderes mit uns.“
Besonders für Radiostationen biete die Verschiebung hin zum Hören eine große Chance, betonte Tech. Allerdings sei Markenpflege für Radiosender enorm wichtig. Nur so können sie von den Geräten leicht gefunden und eindeutig identifiziert werden. Zudem hätten Amazon, Apple und Google eigene Playlists, die sich ebenfalls als Radiosender bezeichnen und gegen die herkömmliche Sender sich behaupten müssen.
Die Zukunft der Smart Speaker
Einen Ausblick auf die Zukunft mit Voice User-Interfaces gab Silvia Bormüller. So sei die Spracheingabe momentan noch sehr unnatürlich, da man mit dem Gerät im Befehlston interagieren müsse: „OK Google. Spiele Musik!“ Bormüller wünscht sich eine geschlossene Kommunikation, bei der sich das Gerät auch an vergangene Unterhaltungen erinnert und diese fortführen kann. Den Smart Speaker der Zukunft sieht sie als einen persönlichen Assistenten, der die Bedürfnisse der Nutzer erkennen und auf sie reagieren kann.
Wie das funktioniert? Sprache vermittelt mehr als nur Textinhalt. Angaben wie Alter, Geschlecht, Herkunft, Persönlichkeit und aktuelle Stimmung lassen sich herauslesen. Zudem funktioniere Sprechen schneller als Tippen, so Bormüller. Auch Nutzer, die wenig mit modernen Technologien anfangen können, wie etwa Senioren, können Smart Speakers durch die intuitive Interaktion nutzen. Bormüller kommt dabei auch auf die 253 Millionen Menschen weltweit zu sprechen, die sehbehindert sind. Dass es einen Bedarf an Voice Assistents gibt, zeige die Tatsache, dass der Markt für Smart Speaker bis 2020 auf drei Milliarden Dollar geschätzt wird.
Sowohl für Bormüller, als auch für Tech stand fest, dass Vorurteile und Skepsis in der Gesellschaft abgebaut werden müssen, um das große Potenzial von Smart Speakern auszuschöpfen. Dass jedoch auch bestimmte Voraussetzungen erfüllt sein müssen, um das Vertrauen in Anbieter und Geräte zu stärken, zeigte die Diskussion mit den Teilnehmern.
Über das Media Date
Informationen zum nächsten Media Date erhalten Sie zeitnah auf der Website des MedienNetzwerk Bayern sowie den Social-Media-Kanälen.