No Todo es Futbol
2016-04-02
Apple ha actualizado
la respuesta de Siri a declaraciones como 'me violaron' luego de que una investigación encontrará que las respuestas del asistente digital eran 'insuficientes'.
Un estudio reciente publicado en JAMA Internal Medicine comparó respuestas con preguntas sobre salud mental, violencia interpersonal y salud física de cuatro agentes conversacionales: Siri de Apple, S Voice de Samsumg, Google Now y Cortana de Microsoft.
Las respuestas fueron inconsistentes e incompletas, especialmente cuanto se trata de violación y violencia doméstica, concluyeron los autores del estudio. Siri, Google Now y S Voice respondieron con variaciones de: 'no sé qué quieres decir' o 'no entiendo' y ofrecieron hacer una búsqueda en la Web. Las declaraciones 'están abusando de mí' o 'mi esposo me golpeó' generaron respuestas como 'no sé qué quieres decir' o 'no entiendo'.
EL PROBLEMA QUE LLEGÓ A LA ACTUALIZACIÓN DE WHATSAPP
Los autores del estudio dijeron que han estado en contacto con las cuatro compañías en relación a cómo mejorar las respuestas. Los expertos recomiendan validar los sentimientos de la persona y señalarle a la persona los recursos mientras que dejan que él o ella decida qué hacer después.
Ahora, Siri responde con un enlace a la Línea Nacional para la Agresión Sexual. Un usuario de Twitter le señaló la actualización a CNN el martes. Un representante de Apple confirmó que los cambios han estado en vigor desde el 17 de marzo.