¿Más opciones? Decisiones más largas. Pero no linealmente.
El tiempo de decisión aumenta logarítmicamente. Con el número de alternativas de elección. Siguiendo la relación matemática T = a + b log₂(n).
Donde el tiempo de decisión (T) crece de manera predecible. Pero sub-linealmente. A medida que las opciones (n) aumentan.
La investigación pionera de Hick (1952) demostró el patrón. A través de experimentos controlados de tiempo de reacción.
¿Los números? Claros y consistentes.
¿2 opciones? 380ms de tiempo de reacción promedio. ¿4 opciones? 520ms. ¿8 opciones? 680ms. ¿10 opciones? 720ms.
¿El patrón? Escalamiento logarítmico. No lineal.
Duplicar las opciones agregó incrementos de tiempo constantes. Aproximadamente 150-200ms. En lugar de duplicar la duración total de la decisión.
Este escalamiento logarítmico revela algo profundo. Sobre la arquitectura cerebral. El cerebro organiza las opciones jerárquicamente. Similar a los algoritmos de búsqueda binaria. Permitiendo una toma de decisiones manejable. A pesar de la proliferación de opciones.
Hick formuló esto matemáticamente. T = a + b log₂(n). Donde T representa el tiempo de reacción total. Donde a representa el tiempo de respuesta base. Donde b representa la tasa de procesamiento de decisión. Y n representa el número de alternativas igualmente probables.
Cada elección entre n alternativas requiere procesar log₂(n) bits de información. Cada bit requiere un tiempo de procesamiento constante.
El principio: Más opciones toman más tiempo. Pero logarítmicamente, no linealmente. Diseña en consecuencia.
Los experimentos seminales de Hick (1952) establecieron relaciones matemáticas precisas entre la cantidad de opciones y el tiempo de reacción a través de mediciones de laboratorio rigurosas. Los participantes enfrentaban tareas de reacción de elección presionando botones correspondientes cuando se iluminaban luces específicas—las tareas variaban desde escenarios de 2 opciones (izquierda/derecha) hasta escenarios de 10 opciones (diez mapeos diferentes de estímulo-respuesta). Hick midió los tiempos de reacción a través de miles de ensayos descubriendo patrones sistemáticos: 2 opciones promediaron 380ms, 4 opciones promediaron 520ms, 8 opciones promediaron 680ms, 10 opciones promediaron 720ms. Estas mediciones revelaron un escalamiento logarítmico—cada duplicación de opciones agregó aproximadamente 150ms en lugar de duplicar el tiempo total.
Hick formuló este patrón matemáticamente como T = a + b log₂(n) donde T representa el tiempo de reacción total, a representa el tiempo de respuesta base (componentes no decisionales como detección de estímulos y ejecución motora), b representa la tasa de procesamiento de decisión (tiempo por "bit" de información procesada), y n representa el número de alternativas igualmente probables. Esta fórmula cuantifica cómo la complejidad de elección afecta el rendimiento a través del marco teórico de la información—cada elección entre n alternativas requiere procesar log₂(n) bits de información con cada bit requiriendo un tiempo de procesamiento constante.
La investigación complementaria de Hyman (1953) extendió y validó los hallazgos de Hick mientras refinaba la formulación matemática. Sus experimentos variaron sistemáticamente tanto la cantidad de opciones como la probabilidad de elección (algunos estímulos aparecían con más frecuencia que otros) demostrando que el tiempo de reacción se correlaciona con la entropía de información—el contenido promedio de información por elección calculado como H = -Σ p(i) log₂ p(i) donde p(i) representa la probabilidad de cada alternativa. Esto reveló que las probabilidades de elección desiguales reducen el tiempo de decisión—las opciones seleccionadas frecuentemente responden más rápido de lo predicho por el simple conteo de opciones porque el cerebro optimiza para casos comunes.
El trabajo de Hyman estableció una condición límite crítica: La Ley de Hick se aplica principalmente a opciones no familiares que requieren toma de decisiones activa. Las asociaciones estímulo-respuesta bien practicadas evitan el escalamiento logarítmico acercándose a tiempos de reacción constantes independientemente del tamaño del conjunto porque los programas motores se ejecutan directamente sin evaluación deliberada de elecciones. Los mecanógrafos expertos que seleccionan entre 26 teclas de letras no experimentan efectos de la Ley de Hick de 26 opciones porque escribir se convirtió en memoria procedimental automática en lugar de toma de decisiones declarativa esforzada.
La investigación fundamental de HCI de Card, Moran y Newell (1983) a través del marco Model Human Processor integró la Ley de Hick en una metodología sistemática de diseño de interfaces. Su trabajo demostró que los efectos de la Ley de Hick se componen a través de decisiones secuenciales creando impactos multiplicativos en el tiempo de finalización de tareas. Las interfaces que requieren que los usuarios naveguen múltiples niveles de menú, cada uno presentando numerosas opciones, acumulan retrasos de decisión impactando sustancialmente la eficiencia general. Esto estableció la optimización de la arquitectura de elección como consideración fundamental de usabilidad.