PC et portable

Hé Siri, tu es stupide

Siri, obéissez-vous aux trois lois de la robotique ? Comme beaucoup d'autres questions idiotes, c'est une question que quelqu'un chez Apple a laborieusement anticipée. « J'oublie les trois premiers », gazouille la réponse, « mais il y en a un quatrième : « Une machine intelligente doit d'abord considérer ce qui en vaut le plus la peine : effectuer la tâche donnée ou, au contraire, trouver un moyen de s'en sortir ». "

Ha ha ! Imaginez la réunion où ils ont écrit celui-là ! Le problème, c'est que ce n'est pas vraiment une blague, n'est-ce pas ? C'est leur véritable brief de développement.

Siri peut faire beaucoup de choses faciles, comme faire des calculs, consulter les prévisions météo et envoyer des e-mails. Exigez quelque chose de plus difficile et cela pare "Je ne suis pas sûr de comprendre" ou fait simplement une recherche sur le Web pour ce que vous avez dit. Eh bien, whoop-de-doo. Ah la singularité.

Voir en rapport Dix choses qu'Apple a tuées, et pourquoi c'était juste.

La montée en puissance des robots polyvalents – y compris Alexa d'Amazon, le prochain assistant de Google et même un rival du développeur original de Siri, appelé Viv – jette un projecteur inconfortable sur le concierge désincarné d'iOS. Si, comme on le dit, il est sur le point d'être annoncé comme une fonctionnalité phare d'OS X 10.12 Sensemilla *, nous ne pouvons qu'espérer qu'un saut quantique dans l'intelligence est en cours. Parce qu'il peut y avoir des blagues, mais Siri n'a pas craqué en étant sage.

Une direction

« Mais ça marche. Principalement. Si vous parlez comme un annonceur de la BBC.

C'est formidable que la technologie existe pour convertir la parole en texte. Pas si génial que la technologie ne rentre apparemment pas dans votre téléphone, il doit donc rester en Caroline du Nord en utilisant votre allocation de données. Mais ça marche. Principalement. Si vous parlez comme un annonceur de la BBC.

Ensuite, ce texte peut être extrait à la recherche de mots-clés à connecter à l'une des sources d'informations de Siri, notamment Apple Maps, Wolfram Alpha, Wikipedia et Microsoft Bing. (Heureusement, vous pouvez échanger Bing contre un véritable moteur de recherche dans Paramètres | Safari | Moteur de recherche. Pas en demandant à Siri, cependant. Ce serait trop facile.)

Mais la façon dont Siri utilise ces sources est loin d'être intelligente. Lorsque j'ouvre Maps et que je tape "Whickham" dans le champ de recherche, il trouve correctement une liste de lieux dans Whickham, une petite ville près de chez moi. Parmi ceux-ci se trouve l'entrée générique pour Whickham elle-même, marquée juste à côté du mot "Whickham" sur la carte d'Apple. La mise en page est belle, d'ailleurs.

Je ne devrais pas vraiment admirer la composition en conduisant, alors à la place, je dis: "Hé Siri, dirigez-vous vers Whickham." Rapide comme un éclair, Siri trouve High Wycombe, Buckinghamshire. C'est l'autre bout de l'Angleterre. Il ne me demande pas si c'est le Wycombe que je voulais dire; il commence juste à tracer un itinéraire.

(Ce n'est pas aussi stupide que cela puisse paraître. Quand je demande des indications pour « Washington », une autre ville de Tyne and Wear, il m'offre Olympia, WA, à 4 600 milles. Ce n'est même pas le plus probablement le mauvais Washington.)

"Non, Siri, Whickham, W-H-I-C-K-H-A-M."

Maintenant, il existe un moyen tout à fait évident de résoudre cette confusion : vous épelleriez le mot. Alors j'essaie : "Non, Siri, Whickham, W-H-I-C-K-H-A-M." Il l'entend parfaitement et annonce immédiatement qu'il ne trouve aucun endroit correspondant. Immédiatement, ne vous inquiétez pas - ne partez pas pour vérifier les sources. Juste non. Rappelez-vous, Whickham est juste là dans Apple Maps, le même moteur qu'il utilise pour me montrer High Wycombe.

La seule façon pour moi d'arriver finalement à Whickham est de me souvenir d'un nom de rue là-bas (Front Street) et de le demander, puis de penser à une autre façon de le demander après que Siri m'ait montré la mauvaise rue Front et, encore une fois, n'offre aucune alternative. Pour ajouter l'insulte à l'injure, il a choisi la rue Front la plus proche de mon emplacement actuel. Évidemment.

Désolé, je ne suis pas

D'autres types de requêtes sont traités avec la même sottise. « Siri, quelle est la différence entre le PIB de l'Allemagne et celui de l'Italie ? » Pas de problème - il va et obtient la bonne réponse de Wolfram Alpha. Ensuite, j'essaie une question de suivi. Siri avait l'habitude d'être nul lors des questions de suivi, mais a repoussé ses idées après que Google Voice Search soit sorti et les ait réussis. Vous pouvez maintenant demander « Quel temps fera-t-il lundi ? » et ajoutez « Et mardi ? » et c'est bien. Ou nuageux, selon le cas.

Alors j'enchaîne avec : « Et la France ? Il entend « la France » comme des « amis ». De tous les mots que j'ai pu dire, le fait que je viens de nommer deux autres États européens n'ajoute apparemment aucun poids à la possibilité que je voulais dire « France ». Une IA interactive de premier plan, les amis.

J'ai un parent de 88 ans qui est très sourd. Lorsque vous répétez quelque chose qu'elle a mal entendu, elle devine un mot différent. Elle a peut-être encore tort, mais elle ne devine plus le même mot, car pourquoi l'aurais-tu répété ? Je répète « Et la France ? » trois fois. À trois reprises, Siri renvoie « Et les amis ? » « Question intéressante, Adam », répond-elle avec brio.

Finalement, je me rends compte que je dois dire "France" avec un accent chic (je suis du nord, donc "France" rime avec "pantalon"). Siri revient avec le numéro de téléphone d'Elizabeth France CBE, qui est dans mes contacts depuis qu'elle était Data Protection Registrar. Parce qu'évidemment, je voulais dire une personne au hasard dont j'ai appelé le bureau pour la dernière fois il y a 14 ans, pas le pays. (Le pays voisin des deux autres pays que je viens de mentionner.) Et je fais souvent référence aux gens uniquement par leur nom de famille. C'est totalement une chose. « Siri, et Carruthers ? »

Déchets à l'intérieur

Le genre de logique qui manque ici ne devrait pas être difficile. C'est déjà là, à certains égards. Vous pouvez dire – à l'improviste, à propos de rien – « Hey Siri, Ivy est ma sœur. Après avoir vérifié de quelle Ivy vous voulez dire, si vous en avez plus d'un dans vos contacts, Siri vous demandera : « OK, voulez-vous que je me souvienne qu'Ivy est votre sœur ? » Dites « Oui » et, à l'avenir, vous pourrez dire « Appeler ma sœur » pour appeler ce contact.

Les relations familiales ont des interdépendances standard, vous pouvez donc naturellement spécifier « Oliver est le fils d'Ivy » et ensuite dire « Siri, envoyez un SMS à mon neveu » pour envoyer un message à ce contact. Ce n'est pas sorcier, mais c'est une belle… attendez une minute. Non. Siri fait une recherche sur le Web pour « Oliver est le fils d'Ivy ». Cela ne peut même pas aller aussi loin.

"Ce qui est le plus exaspérant à propos de Siri, c'est que, pour un système conçu pour écouter, c'est un si mauvais auditeur."

Ce qui est le plus exaspérant à propos de Siri, c'est que, pour un système conçu pour écouter, c'est un si mauvais auditeur. Et c'est plus qu'un simple bug. L'insouciance injustifiée, le refus catégorique de contempler sa propre ignorance, sont inévitablement symptomatiques de l'orgueil de la Silicon Valley.

Comprendre la parole humaine et les intentions qui la sous-tendent est un énorme défi, même pour les humains. En tant qu'orateurs, nous trébuchons sur nos mots ; en tant qu'auditeurs, nous les interprétons mal. La plupart de chaque conversation demande gentiment des éclaircissements ou résout l'ambiguïté.

Pourtant, Siri n'aura rien de tout cela. Malgré tout son placage conversationnel, il recherche simplement dans notre entrée les mêmes commandes aboyées que nous pourrions trouver dans un menu. Soit il sait ce que nous voulons, soit il "ne comprend pas", une manière passive-agressive de dire "Entrée invalide". Il n'y a rien entre les deux.

"C'est tellement Bay Area", disent les gens maintenant, lorsqu'un magnat de la technologie trop privilégié se mêle d'un problème humain complexe avec une solution simpliste au mauvais problème. Autant dire : « C'est tellement Siri. »

*Prouvez que nous avons tort alors

À LIRE SUIVANT : Les dix choses qu'Apple a tuées – et pourquoi c'était juste

$config[zx-auto] not found$config[zx-overlay] not found