Sobre LLM/AI y su impacto en UI/UX

Durante casi 50 años, desde la época de Xerox Labs, ingenieros y científicos, ha habido un esfuerzo continuo para desarrollar una colección de patrones y un campo de estudio formal para la interacción humano-computadora.
A medida que las computadoras, los programas y los dispositivos han evolucionado enormemente, también lo ha hecho la necesidad de que los profesionales de la experiencia del usuario propongan conceptos y metáforas novedosos para que los usuarios finales tengan una experiencia agradable.
Nosotros, como industria, hemos creado una montaña de herramientas, bibliotecas, marcos que abstraen la complejidad y la incomodidad para presentar al usuario una interfaz intuitiva y fácil de usar. Hemos adoptado conceptos de la psicología, el desarrollo humano y la ciencia cognitiva para ayudarnos a comprender mejor a nuestros usuarios y cómo usan cualquier dispositivo, aplicación web o incluso interfaces de programación.
Todas esas cosas tienen sus raíces en el hecho de que los humanos no hablan binario o hexadecimal y las computadoras no hablan en lenguaje humano. Así que primero necesitábamos una forma gráfica de interactuar con la computadora, porque la interacción de la línea de comandos es muy poco intuitiva y requiere un conocimiento previo del sistema. Entonces, los ingenieros inventaron la interfaz de usuario, y luego el mouse, y así sucesivamente. Pero a medida que las computadoras ganaron poder y capacidades, tremendamente, se tuvieron que implementar nuevos patrones, nuevos comportamientos, incluso paletas de colores.

Durante los últimos 15 años, al menos para las aplicaciones web, la mayor parte del esfuerzo se ha concentrado en hacer que los flujos de trabajo CRUD sean utilizables, intuitivos y accesibles. Pero al igual que antes, esto se debe a que no se puede esperar que el usuario sea experto en SQL, conozca el esquema de la base de datos, los nombres de los campos, etc. para recuperar la información que necesita. Luego, también existe la necesidad de tableros de control de "panel único" para unificar, al menos en lo que respecta al usuario, fuentes de datos dispares de una manera coherente y cohesiva.
[Grabar sonido de scratch]
En mi opinión, con los desarrollos recientes en LLM e IA, se niegan muchas de las necesidades subyacentes de las UI y su UX. Proyectos como ChatGPT, Bard, Bing (y todos los descendientes actuales de terceros) demuestran que hemos llegado a un punto en la tecnología en el que las computadoras entienden y se comunican con los humanos con facilidad. Como usuario, no necesito tres botones, un menú desplegable y un cuadro de búsqueda, solo puedo escribir en lenguaje natural lo que estoy buscando, lo que puede ser una operación increíblemente compleja detrás de escena, y el sistema entiende el consulta, luego la analiza internamente, hace inferencias y devuelve lo que cree que es la respuesta más precisa. No necesito saber sintaxis exacta, banderas, bases de datos, etc.
Como usuario, puedo escribir "crear proyecto Overlord, agregarme como propietario, agregarle tres nuevas tareas: recopilar inteligencia, discutir con aliados, implementar" y el sistema sabe qué hacer. "enumere todos los proyectos de los que formo parte ordenados por fecha de vencimiento primero" y podría entrar en tanta complejidad como quisiera y el sistema sabría qué hacer.
Debido a que no requiere ninguna habilidad especial o conocimiento del sistema, los sistemas basados en avisos evitan la necesidad de mucho de lo que se ha construido y diseñado en las últimas dos décadas en términos de UI y UX. Sin embargo, va más allá, porque MLL/AI basado en avisos se basa en el uso de lenguaje escrito natural, es la interfaz más accesible (en el sentido común) que existe. Y para aquellos con problemas de movimiento, una herramienta de voz a texto incluso funcionará. No más dolores de orden de tabulación, no más problemas o aria-
preocupaciones de contraste. Lenguaje natural adentro, lenguaje natural afuera.
Claramente, no todos los datos e información se pueden describir textualmente. Permanecerá la necesidad de gráficos, cuadrículas, listas, etc. Pero gracias a todo el trabajo a lo largo de los años, este es un “problema resuelto”. Tenemos widgets, componentes, etc. que el sistema puede aprovechar. Pienso que en 3 a 5 años, la mayoría de las aplicaciones web, inteligencia comercial, análisis, aplicaciones se parecerán a un Jupyter Notebook (aumentado como Google Colab , Noteable , por ejemplo). Pero es demasiado pronto para decirlo.
Para terminar, la última generación de MLL e IA está generando muchas promesas, pero también un gran potencial de disrupción y desplazamiento. No tengo una bola de cristal, por lo que no puedo ver qué sucederá dentro de 3 a 5 años, pero creo que muchas disciplinas en tecnología y campos adyacentes tendrán un ajuste de cuentas, incluido el campo de UI/UX.