Jesse Bataglia hĂ€lt ihren Sohn Bennett in ihrem Haus in Ranch Mirage, Kalifornien. Auf der Suche nach einem neuen KindermĂ€dchen nutzte Batalha Predictim, einen Onlinedienst, der angeblich âfortgeschrittene kĂŒnstliche Intelligenzâ verwendet, um das Risiko zu bewerten, dass das KindermĂ€dchen drogenabhĂ€ngig wird, sich aggressiv verhĂ€lt oder âschlechte Manierenâ zeigt.Als Jesse Bataglia begann, nach einem neuen KindermĂ€dchen fĂŒr ihren einjĂ€hrigen Sohn zu suchen, wollte sie mehr Informationen ĂŒber den Angestellten erhalten als das Fehlen eines Strafregisters, Kommentare der Eltern und persönliche Interviews. Aus diesem Grund wandte sie sich an den Onlinedienst Predictim, um mithilfe der âfortgeschrittenen kĂŒnstlichen Intelligenzâ die IdentitĂ€t des KindermĂ€dchens zu bewerten, und schickte seine Scanner an Tausende von Posts auf Facebook, Twitter und Instagram eines der Kandidaten.
Das System fĂŒhrte eine automatische "Risikobewertung" eines 24-jĂ€hrigen MĂ€dchens ein und behauptete, das Risiko des Konsums ihrer Medikamente sei "sehr gering". Das System bewertete das Risiko von EinschĂŒchterung, Aggression, Respektlosigkeit und schlechten Manieren jedoch etwas höher - um 2 von 5.
Das System erklĂ€rt seine Entscheidungen nicht. Bataglia, die das KindermĂ€dchen fĂŒr absolut vertrauenswĂŒrdig hielt, begann plötzlich zu zweifeln. "Social Media zeigt die IdentitĂ€t einer Person", sagte der 29-jĂ€hrige Bataglia, der in einem Vorort von Los Angeles lebt. "Warum ist die Punktzahl 2, nicht 1?"
Predictim bietet Eltern dieselben Dienstleistungen, die Dutzende anderer Technologieunternehmen an Arbeitgeber auf der ganzen Welt verkaufen: KI-Systeme, die menschliche Sprache, Mimik und Online-PrÀsenz analysieren und gleichzeitig versprechen, die geheimen Aspekte ihres persönlichen Lebens aufzudecken.
Die Technologie verĂ€ndert die Art und Weise, wie einige Unternehmen nach Kandidaten suchen, Arbeitnehmer einstellen und bewerten, und bietet Arbeitgebern eine konkurrenzlose Bewertung von Kandidaten durch eine neue Welle invasiver psychologischer Bewertungen und Ăberwachung.
Fama behauptet, dass sie KI verwenden, um die sozialen Netzwerke der Arbeiter auf âtoxisches Verhaltenâ zu ĂŒberwachen, um ihre Chefs zu alarmieren. HireVue, ein Rekrutierungstechnologiefirma, das mit Unternehmen wie Geico, Hilton und Unilever zusammenarbeitet, bietet ein System an, das den Ton, die Wortwahl und die Mimik des Kandidaten wĂ€hrend eines Videointerviews automatisch analysiert und seine FĂ€higkeiten und Manieren vorhersagt (um bessere Ergebnisse zu erzielen, werden Kandidaten mehr angeboten lĂ€cheln).
Kritiker argumentieren jedoch, dass Systeme wie Predictim eine Gefahr fĂŒr sich selbst darstellen und automatische Lösungen hinterlassen, die das Leben eines Menschen ohne ĂberprĂŒfung verĂ€ndern können.
Systeme hĂ€ngen von Black-Box-basierten Algorithmen ab, die fast keine Details darĂŒber liefern, wie sie alle komplexen Details des Innenlebens einer Person auf die Berechnung ihrer positiven und negativen Seiten reduziert haben. Und obwohl die Predictim-Technologie das Denken der Eltern beeinflusst, bleibt sie völlig unbewiesen, fast ungeklĂ€rt und anfĂ€llig fĂŒr Wahrnehmungsverzerrungen in Bezug darauf, wie genau sich das richtige KindermĂ€dchen in sozialen Netzwerken verhalten, aussehen und sprechen sollte.
Es gibt "ein verrĂŒcktes Rennen, um die Kontrolle ĂŒber die KI zu ĂŒbernehmen und alle Arten von Entscheidungen zu treffen, ohne den Menschen Bericht zu erstatten", sagte Jeff Chester, Executive Director des Center for Digital Democracy, einer Technologie-Interessenvertretung. "Es scheint, als hĂ€tten sich die Leute mit digitalem Soda betrunken, und sie denken, es ist eine normale Art, unser Leben zu verwalten."
Der Predictim-Scanprozess analysiert das gesamte Verhalten von KindermĂ€dchen in sozialen Netzwerken, die fĂŒr viele der jĂŒngsten KindermĂ€dchen den gröĂten Teil ihres Lebens erfassen können. Gleichzeitig wird den KindermĂ€dchen mitgeteilt, dass dies ein schwerwiegender Nachteil im Wettbewerb um ArbeitsplĂ€tze ist, wenn sie sich weigern, sich einem solchen Scan zu unterziehen.
Sal Parsa, CEO und MitbegrĂŒnder von Predictim, sagte, das Unternehmen, das im vergangenen Monat im Rahmen des Berkeley-Technologie-Inkubators der SkyDeck University of California gegrĂŒndet wurde, nehme die ethischen Fragen des Einsatzes seiner Technologie ernst. Er sagte, dass Eltern die Bewertung als Berater betrachten sollten, was âvielleicht die wirklichen Eigenschaften des KindermĂ€dchens widerspiegelt und vielleicht nicht widerspiegeltâ.
Er fĂŒgte hinzu, dass die Gefahr, ein problematisches oder gewalttĂ€tiges KindermĂ€dchen einzustellen, die KI zu einem wesentlichen Instrument fĂŒr jeden Elternteil macht, der versucht, sein Kind in Sicherheit zu bringen.
"Durchsuchen Sie Google nach Missbrauch von Babysittern und Sie werden Hunderte von Ergebnissen finden", sagte er. - Es gibt Menschen mit psychischen Erkrankungen oder nur wĂŒtend. Unser Ziel ist es, alles in unserer Macht stehende zu tun, um sie aufzuhalten. â
Die Kosten fĂŒr das Scannen von Predictim beginnen bei 24,99 US-Dollar. FĂŒr sie mĂŒssen Sie den Namen und die E-Mail-Adresse des potenziellen KindermĂ€dchens angeben und ihre Zustimmung zum umfassenden Zugriff auf ihre Konten in sozialen Netzwerken einholen. Das KindermĂ€dchen kann dies ablehnen, und dann erhalten die Eltern eine Benachrichtigung darĂŒber, und das KindermĂ€dchen selbst erhĂ€lt einen Brief, in dem es heiĂt: "Der Elternteil, der an Ihnen interessiert war, kann Sie erst einstellen, wenn Sie der Anfrage nachkommen."
Predictim-Manager geben an, dass sie Algorithmen verwenden, um Sprache und Bilder zu verarbeiten, âComputer Visionâ zu betreiben, Nanny-BeitrĂ€ge auf Facebook, Twitter und Instagram auszuwerten und nach Hinweisen auf ihr Offline-Leben zu suchen. Der Bericht wird nur von den Eltern erhalten, die nicht verpflichtet sind, seine Ergebnisse mit dem KindermĂ€dchen zu teilen.
Eltern können sich wahrscheinlich selbst öffentliche Nanny-Konten in sozialen Netzwerken ansehen. Computerberichte versprechen jedoch eine grĂŒndliche EinschĂ€tzung der Jahre der Online-AktivitĂ€ten, die auf eine einzige Zahl reduziert sind: eine verlockend einfache Lösung fĂŒr eine fast unmögliche Aufgabe.
Risikobewertungen lassen sich in verschiedene Kategorien einteilen, einschlieĂlich offener Inhalte und Drogenmissbrauch. Das Startup behauptet in der Werbung auch, dass sein System in der Lage ist, andere Merkmale der Persönlichkeit des KindermĂ€dchens zu bewerten, wie Höflichkeit, FĂ€higkeit, mit anderen zu arbeiten, und âPositivitĂ€tâ.
Das Unternehmen hofft, die milliardenschwere Branche des âOutsourcings der elterlichen Verantwortungâ zu revolutionieren, und hat bereits begonnen, Werbung zu schalten, indem es Blogs und Websites fĂŒr Eltern fĂŒr âMĂŒtterâ sponsert. Die Marketingstrategie konzentriert sich auf die erklĂ€rte Gelegenheit, Geheimnisse preiszugeben und den âAlbtraum eines Elternteilsâ zu verhindern. In der Werbung werden Strafsachen angefĂŒhrt, darunter beispielsweise der Fall einer Kinderpflegerin aus Kentucky, die wegen schwerer Körperverletzung eines acht Monate alten Kindes verurteilt wurde.
"Wenn die Eltern dieses von der Krankenschwester betroffenen MĂ€dchens Predictim im Genehmigungsverfahren fĂŒr Kandidaten verwenden könnten", heiĂt es in der MarketingerklĂ€rung des Unternehmens, "wĂŒrden sie sie niemals mit ihrem kostbaren Kind allein lassen."
Technologieexperten sagen jedoch, dass das System selbst Warnungen ausgibt und dabei auf die BefĂŒrchtungen der Eltern zurĂŒckgreift, Ergebnisse von Persönlichkeitsscans mit nicht ĂŒberprĂŒfter Genauigkeit zu verkaufen.
Sie werfen auch Fragen auf, wie solche Systeme trainieren und wie anfĂ€llig sie fĂŒr Fehler sind, die sich aus den Unsicherheiten ergeben können, die mit der Nutzung sozialer Netzwerke durch KindermĂ€dchen verbunden sind. Eltern erhalten nur eine Warnung vor zweifelhaftem Verhalten, ohne bestimmte SĂ€tze, Links oder andere Details, anhand derer sie ihre Entscheidung treffen könnten.
Als ein Scan eines KindermĂ€dchens eine Warnung vor einer möglichen Verfolgung von ihrer Seite ausgab, sagte eine aufgeregte Mutter, die diese EinschĂ€tzung beantragte, sie könne nicht herausfinden, ob das Programm ein Zitat aus einem alten Film, Lied oder einem anderen Satz bemerkte, den sie fĂŒr wirklich gefĂ€hrliche Aussagen hielt .
Jesses Telefon zeigt die Ergebnisse der Predictim-AnwendungJamie Williams, ein Anwalt der Electronic Frontier Foundation, einer BĂŒrgerrechtsgruppe, sagte, dass in Bezug auf die meisten Algorithmen, die heute zur Bewertung der Bedeutung von Wörtern und Fotografien verwendet werden, bekannt ist, dass ihnen ein menschlicher Kontext und ein gesunder Menschenverstand fehlen. Selbst Technologiegiganten wie Facebook hatten Schwierigkeiten, Algorithmen zu entwickeln, die zwischen harmlosen und wĂŒtenden Kommentaren unterscheiden konnten.
âWie kann man dieses System zur Bewertung von Jugendlichen ausprobieren: Sie sind Kinder! - sagte Williams. - Kinder haben ihre eigenen Witze, sie sind berĂŒhmt fĂŒr Sarkasmus. "Was eine Person von dem Algorithmus als" schlechte Manieren "hĂ€lt, kann als politische Aussage oder legitime Kritik angesehen werden."
Und wenn das System falsch ist - sagen wir mal, dass das KindermĂ€dchen Drogen missbraucht - können die Eltern den Fehler nicht herausfinden. Klare Bewertungen und EinschĂ€tzungen der Genauigkeit des Systems können dazu fĂŒhren, dass Eltern viel mehr Genauigkeit und Autoritarismus von ihm erwarten, als eine Person an seiner Stelle versprechen könnte. Infolgedessen neigen Eltern dazu, KindermĂ€dchen einzustellen, die sie sonst meiden wĂŒrden, oder sich von Menschen zu entfernen, die ihr Vertrauen bereits verdient haben.
"Es gibt keine Metrik, die genau sagen kann, ob diese Methoden in ihren Vorhersagen so effektiv sind wie die Aussagen der Entwickler", sagte Miranda Bogen, Chefanalystin am Upturn Washington Think Tank, der die Verwendung von Algorithmen fĂŒr die automatische Entscheidungsfindung und Beurteilung untersucht . "Die AttraktivitĂ€t dieser Technologien wird wahrscheinlich ihre tatsĂ€chlichen FĂ€higkeiten ĂŒbertreffen."
Malissa Nielsen, eine 24-jĂ€hrige Nanny, die fĂŒr Bataglia arbeitet, hat kĂŒrzlich zwei anderen Familien Zugang zu ihren sozialen Netzwerken zur Bewertung bei Predictim gewĂ€hrt. Sie sagte, dass sie in Bezug auf soziale Netzwerke immer vorsichtig sei und beschloss, zusĂ€tzliche Informationen weiterzugeben, ohne sich selbst zu verletzen. Sie geht wöchentlich in die Kirche, schwört nicht und beendet die Lehrerausbildung im Bereich des Unterrichts von kleinen Kindern. Danach hofft sie, einen Kindergarten zu eröffnen.
Als sie jedoch erfuhr, dass das System ihr aufgrund von Respektlosigkeit und Mobbing keine idealen Noten verlieh, war sie erstaunt. Sie glaubte, dass es Eltern erlaubt sei, ihre PrĂ€senz in sozialen Netzwerken und nicht den Algorithmus zu untersuchen - eine kritische Analyse ihrer Persönlichkeit. Sie wurde auch nicht ĂŒber die Ergebnisse eines Tests informiert, der möglicherweise ihre einzige Einnahmequelle schĂ€digen könnte.
âIch möchte dieses Problem ein wenig verstehen. Warum hat dieses Programm so ĂŒber mich gedacht? - sagte Nielsen. "Der Computer hat keine GefĂŒhle; er kann das alles nicht erkennen."
Die Amerikaner vertrauen immer noch nicht den Algorithmen, deren Entscheidungen ihr tĂ€gliches Leben beeinflussen können. In einer Umfrage des Pew Research Center in diesem Monat bewerteten 57% der Befragten die automatische Verarbeitung von LebenslĂ€ufen fĂŒr Bewerber als "inakzeptabel".
Predictim berichtet jedoch, dass sie sich darauf vorbereiten, die Arbeit im ganzen Land auszuweiten. Die Manager von Sittercity, einem Online-Babysitter-Service, der von Millionen von Eltern besucht wird, sprechen ĂŒber den Start eines Pilotprogramms, das die automatischen Bewertungen von Predictim in die aktuellen automatischen Bewertungen und ServiceprĂŒfungen integriert.
"Die Suche nach einem KindermÀdchen ist mit Unsicherheiten behaftet", sagte Sandra Dainora, Produktleiterin bei Sittercity, die glaubt, dass solche Tools bald zum Standard bei der Online-Suche nach Betreuern werden können. "Eltern sind stÀndig auf der Suche nach der besten Lösung, der vollstÀndigsten Forschung, den zuverlÀssigsten Fakten."
Predictim-Manager glauben auch, dass sie die FĂ€higkeiten des Systems ernsthaft erweitern und noch persönlichere EinschĂ€tzungen des Privatlebens der Nanny anbieten können. Joel Simonov, Technologiedirektor, sagte, das Team sei daran interessiert, ânĂŒtzliche psychometrische Datenâ zu erhalten, die auf der Analyse der AktivitĂ€t von KindermĂ€dchen in sozialen Netzwerken basieren, und ihre Geschichten einem IdentitĂ€tstest zu unterziehen, beispielsweise der Myers-Briggs-Typologie, um diese Ergebnisse den Eltern zur VerfĂŒgung zu stellen.
Social Media Mining und Predictims Interesse an massenpsychologischen Analysen Ă€hneln den Ambitionen von Cambridge Analytica, einem politischen Beratungsunternehmen, das Trumps Wahlkampf unterstĂŒtzte und Facebook in einen globalen IdentitĂ€tsskandal verwickelte. Die Verantwortlichen von Predictim behaupten jedoch, interne Sicherheitskontrollen eingerichtet zu haben und arbeiten daran, die persönlichen Daten der KindermĂ€dchen zu schĂŒtzen. "Wenn wir ein Datenleck bei einem KindermĂ€dchen hĂ€tten, wĂ€re das nicht cool", sagte Simonov.

Experten befĂŒrchten, dass AI-basierte Bewertungssysteme eine Zukunft bedeuten, in der der Erhalt eines Arbeitsplatzes, der nicht unbedingt mit der Kinderbetreuung zusammenhĂ€ngt, von der Maschine abhĂ€ngt. Viele Rekrutierungs- und Rekrutierungsunternehmen erstellen oder investieren bereits in Systeme, die Kandidaten-LebenslĂ€ufe in groĂem Umfang analysieren und automatische Kandidatenbewertungen abgeben können. Ăhnliche KI-Systeme - einschlieĂlich Jigsaw, einem von Google entwickelten Technologie-Inkubator - werden verwendet, um Online-Kommentare auf BelĂ€stigung, Bedrohung und Grausamkeit zu verfolgen.
Es wurde jedoch bereits mehr als einmal gezeigt, wie Algorithmen zum Auffinden von Mitarbeitern Fehler verbergen, die die Karriere einer Person ruinieren können. Amazon.com hat die Entwicklung des Einstellungsalgorithmus eingestellt, nachdem festgestellt wurde, dass Frauen unrechtmĂ€Ăig unterschĂ€tzt werden, da die Einstellungshistorie des Unternehmens, die der Tendenz der Technologiebranche folgt, MĂ€nner einzustellen, dem System beigebracht hat, mĂ€nnliche Kandidaten zu bevorzugen. Das Unternehmen sagte, sie hĂ€tten dieses Programm nie zur Bewertung von Kandidaten verwendet.
Einige KI-Experten glauben, dass solche Systeme Vorurteile in Bezug auf Alter oder Rasse ernsthaft aufblÀhen können, indem sie beispielsweise wichtige Wörter oder Fotos bestimmter Personengruppen hÀufiger als andere markieren. Sie sind auch besorgt, dass Predictim junge KindermÀdchen dazu zwingen wird, ihre persönlichen Daten zu teilen, nur um einen Job zu bekommen.
Diana Werner, Mutter von zwei Kindern, die in einem Vorort von San Francisco lebt, ist jedoch der Ansicht, dass KindermĂ€dchen freiwillig persönliche Informationen weitergeben sollten, um ihre Eltern zu beruhigen. "Die ĂberprĂŒfung der Biografie ist eine gute Sache, aber Predictim untersucht das Thema eingehend und analysiert das Individuum - seinen sozialen und intellektuellen Status", sagte sie. Wo sie lebt, "werden 100% der Eltern einen solchen Dienst nutzen wollen", fĂŒgte sie hinzu. "Wir alle wollen das perfekte KindermĂ€dchen."