Ayuda a los usuarios a entender las capacidades y limitaciones de la IA antes de interactuar con el sistema. Este principio aborda la necesidad critica de establecer expectativas precisas al inicio de cualquier interaccion con IA.
La investigacion de Amershi et al. (2019) sobre interaccion humano-IA establecio que los usuarios necesitan entender que puede y que no puede hacer un sistema de IA antes de comenzar a interactuar con el. Sin esta claridad, los usuarios pueden tener expectativas irreales que llevan a frustracion, o pueden subutilizar el sistema al no conocer su potencial completo.
¿El hallazgo? Los usuarios que reciben una divulgacion clara de capacidades por adelantado muestran 23% mayor confianza en sistemas de IA y reportan significativamente menos frustracion cuando la IA encuentra sus limitaciones.
Los disenadores de interfaces comunican las capacidades de IA inmediatamente. Antes de la primera interaccion. A traves de divulgacion clara y estructurada. Con reconocimiento honesto de limitaciones.
El principio: Se directo. Se especifico. Se honesto sobre lo que la IA puede y no puede hacer.
La divulgacion de capacidades se ha vuelto esencial conforme los sistemas de IA manejan tareas cada vez mas complejas. La investigacion demuestra que la comunicacion anticipada de habilidades de IA impacta directamente la satisfaccion del usuario y el uso apropiado.
Amershi et al. (2019) realizaron investigacion extensiva en productos de Microsoft, analizando miles de interacciones con IA. Sus Directrices para Interaccion Humano-IA identificaron "Hacer claro lo que el sistema puede hacer" como la primera y fundamental directriz. Los estudios mostraron que los usuarios que entendieron las capacidades de IA antes de la interaccion tuvieron calificaciones de confianza 23% mas altas y fueron mas indulgentes cuando la IA cometio errores.
Kocielnik et al. (2019) investigaron el establecimiento de expectativas en asistentes de IA. En un estudio con 300 participantes, aquellos que recibieron divulgacion detallada de capacidades antes de usar un asistente de IA para agendar reportaron 35% mayor satisfaccion comparado con quienes descubrieron las capacidades por prueba y error. El grupo con divulgacion tambien tuvo 28% menos interacciones fallidas.
Yang et al. (2020) examinaron como el enmarcado de capacidades afecta el comportamiento del usuario. Cuando las limitaciones de IA se divulgaron junto con las capacidades, los usuarios hicieron 40% menos solicitudes fuera del alcance de la IA, reduciendo frustracion y mejorando la calidad general de la experiencia.
Bansal et al. (2021) demostraron que la divulgacion de capacidades afecta la calibracion de confianza. Los usuarios que conocian las limitaciones de IA por adelantado mostraron patrones de dependencia mas apropiados—ni confiando demasiado ni muy poco en el sistema—llevando a mejor desempeno del equipo humano-IA.
Para Usuarios: Entender las capacidades de IA permite tomar decisiones informadas sobre cuando y como usar la asistencia de IA. Los usuarios pueden establecer expectativas realistas y evitar frustracion por intentar tareas no soportadas. La divulgacion clara empodera a los usuarios para aprovechar la IA efectivamente dentro de su alcance real.
Para Disenadores: Disenar la divulgacion de capacidades crea oportunidades para educacion del usuario y construccion de confianza. Patrones de divulgacion bien pensados reducen la necesidad de flujos de manejo de errores y recuperacion. La comunicacion honesta establece una base de confianza que beneficia toda la experiencia del producto.
Para Product Managers: La divulgacion clara de capacidades reduce la carga de soporte de usuarios confundidos intentando tareas no soportadas. Establecer expectativas precisas por adelantado aumenta la satisfaccion del usuario y reduce el abandono por decepcion. Los productos con enmarcado honesto de capacidades construyen relaciones mas fuertes a largo plazo con usuarios.
Para Desarrolladores: Los limites de capacidad bien definidos simplifican tanto el desarrollo como las pruebas. La comunicacion clara de alcance permite mejor diseno de API y mensajeria de errores. Los requisitos de divulgacion de capacidades impulsan un alcance de funcionalidades bien pensado desde el inicio.
Las tarjetas de capacidades en onboarding presentan informacion estructurada sobre lo que la IA puede y no puede hacer durante experiencias de usuario por primera vez. La pantalla inicial de ChatGPT muestra "ChatGPT puede cometer errores. Verifica informacion importante." junto con ejemplos de tareas soportadas. La divulgacion aparece antes de cualquier interaccion, estableciendo expectativas desde el inicio.
Las pistas de capacidad en linea muestran informacion de capacidades contextualmente relevante durante el uso. GitHub Copilot muestra "Copilot puede ayudar con: completar codigo, documentacion, pruebas" cuando la extension se activa. Las pistas aparecen en momentos de potencial confusion o descubrimiento de nuevas funciones.
La documentacion de capacidades proporciona material de referencia detallado accesible desde cualquier punto de contacto con IA. El enlace "¿Que puede hacer Copilot?" de Microsoft Copilot lleva a documentacion completa organizada por tipo de tarea. La documentacion es buscable e incluye ejemplos para cada capacidad.
Los indicadores de alcance comunican limites cuando los usuarios se acercan a las limitaciones de IA. Google Assistant muestra sugerencias "Puedo ayudar con estos temas" cuando no entiende una consulta. Los indicadores redirigen a los usuarios hacia capacidades soportadas en lugar de simplemente fallar.
La revelacion progresiva de capacidades introduce funciones de IA gradualmente conforme los usuarios demuestran estar listos. Grammarly desbloquea sugerencias avanzadas de IA conforme los usuarios interactuan con funciones basicas. La revelacion esta ligada al comportamiento del usuario, no a tiempos arbitrarios.