Aimybox bei der Suche: Das Framework zum Erstellen von Sprachassistenten benötigt einen iOS-Assistenten

Alle um uns herum sprechen über Sprachassistenten, Alice, Google Assistant, die wissen, wie, was sie nicht wissen ... Und wir haben ein Framework für die Erstellung mobiler Sprachassistenten erstellt. Ja und Open Source! Bisher haben wir dies nur für Android getan, und jetzt suchen wir einen coolen iOS-Entwickler, der Kotlin-Code problemlos nach Swift portieren kann.

Unter dem Schnitt erzählen wir, warum wir das überhaupt tun, was wir getan haben und wen genau wir im Aimybox-Team suchen.



Es hat sich so ergeben,


dass wir bei Just AI schon lange sprechende Roboter, Sprachassistenten und alle Arten von Chatbots machen. Unter der Haube haben wir unsere eigenen NLP-Technologien (Natural Language Processing) und eine ganze Plattform, visuelle Designer und alles in allem.

Inzwischen ist der Markt für sprechende Geräte


und Anwendungen wachsen und blühen ! Nicht nur Amazon, Google, Yandex - Dutzende von Unternehmen, von kleinen bis zu großen, bemühen sich, ihren Sprachassistenten oder ihr Gerät zu erstellen und zu starten.

„Warum? Wer braucht das? "


- Benutzer ausrufen. Und ihnen wird gesagt: „Der Sprachassistent ist cool! Bald werden alle nur noch mit ihnen reden! “ . Nein, das ist natürlich praktisch. Wenn der Assistent klug ist, alles versteht und schnell und schnell arbeitet. Aber wenn Sie diese Angelegenheit aus einer anderen Perspektive betrachten, werden wir sehen, dass ...

Unternehmen benötigen eine Sprachfunktion


Na ja, oder ein paar. Vor allem aber müssen Sie einer vorhandenen mobilen Anwendung schnell und einfach einen Sprachassistenten hinzufügen . Und damit können Sie danach anpassen, wie Sie möchten.

Wie es in der Praxis aussieht. Es gibt eine mobile Anwendung, die viele Schaltflächen und alle möglichen anderen Elemente der Benutzeroberfläche enthält. Zum Beispiel eine mobile Bank. Was will die Bank? Damit die Mikrofontaste in der Anwendung angezeigt wird, klickt der Benutzer darauf und sagt: "Überweisen Sie Geld an Ihre Mutter . " Anstelle von drei Tapas auf dem Bildschirm - eine. Außerdem kann die Anwendung einfach einen ihrer Bildschirme öffnen, wobei das Empfängerfeld bereits ausgefüllt ist.

Oder hier: "Wo geben sie Dollars aus?" . Und die Anwendung öffnet eine Karte mit Geldautomaten unserer Bank, die dieses Geschäft im Umkreis von einem Kilometer um den Benutzer ausgeben kann.

Was ist so schwer?


Es scheint, dass er der Anwendung einfach eine Schaltfläche hinzugefügt, eine Art Spracherkennung angeschlossen, einen Sprachsynthesizer und die dortige NLP-Engine erstellt, eine schöne Benutzeroberfläche mit einem Bildlauf erstellt, den Spracherkennungsprozess (nicht schlechter als Google) zeigt, alles synchronisiert und getestet hat. Bugs gefangen. Mir wurde klar, dass nicht alles so einfach ist ...



Also dachten wir


Wir können ein Framework erstellen, das all diese Komplexität unter der Haube verbirgt (mit Tests abgedeckt) und es dem Entwickler ermöglicht, seiner bereits funktionierenden mobilen Anwendung schnell einen Sprachassistenten mit den erforderlichen Funktionen hinzuzufügen. Wir haben lange alle Hunde auf dem Weg zur Erstellung von Sprachanwendungen gefressen und wissen, welche Fallstricke es gibt.

Was ist passiert?




Aimybox ! Offenes, kostenloses, benutzerdefiniertes SDK und vorgefertigter Sprachassistent , den Sie wie einen Online-Chat auf der Website zu Ihrer mobilen Anwendung hinzufügen können. Darin verkörpern wir all unsere Erfahrungen bei der Erstellung von Sprachlösungen. Gleichzeitig binden wir den Assistenten jedoch nicht an bestimmte Erkennungs-, Synthese- und NLP-Engines. Nun, damit Sie alle Engines in Ihrem Assistenten unabhängig voneinander verwenden können und Aimybox ihre Arbeit korrekt synchronisiert. Er hat auch eine schöne Benutzeroberfläche!

Folgendes haben wir auf der Conversational AI Conversations-Konferenz über Aimybox gesprochen:


Die Open Source fährt wirklich,


weil Entwickler von Drittanbietern (dieselben Banken) die volle Kontrolle darüber haben müssen, was sie in ihre Anwendungen einbetten. Es ist immer noch eine Sprachschnittstelle, man weiß nie, was es im Inneren macht ...

Und da drinnen


Es gibt vorgefertigte Module verschiedener Spracherkennungs- und Synthese-Engines, NLP- und Sprachaktivierungen. Es gibt einen vorgefertigten anpassbaren GUI-Assistenten . Es gibt eine Dokumentation und ein Beispiel dafür, wie einfach und unkompliziert die Implementierung in Ihrer Anwendung ist. Aber das alles ist nur für Android!

Deshalb suchen wir iOS-Master,


Wer möchte nicht kostenlos an dem Projekt teilnehmen und Kotlin nach Swift portieren? Und ich bin bereit, den weltweit ersten Open Voice-Assistenten für iOS zu erstellen, dessen Code keine Schande ist, um ihn zur allgemeinen Verurteilung der Community auf Github zu veröffentlichen.

Was ist, wenn Sie derjenige sind, der schöne Kotlin lesen und nicht weniger schöne Swift schreiben kann? Schreiben Sie an che@just-ai.com . Sie warten auf das Just AI-Team, die Welt der Sprachassistenten, der Spracherkennung und -synthese, NLP und einen guten Grund, Ihrem Portfolio ein weiteres cooles Projekt hinzuzufügen!

Source: https://habr.com/ru/post/de470259/


All Articles