miércoles, abril 29

Errores de inteligencias

A veces pensamos que una persona o conjunto de algoritmos no pueden equivocarse, algo ocurrido recientemente con la IA (Inteligencia Artificial) de Elon Musk nos demuestra que la IA es propensa a cometer errores. Este señor lleva adelante la iniciativa llamada GROK, siendo este un chatbot de inteligencia artificial desarrollado por xAI y la tarea del chatbot es simular una conversación con usuarios humanos, ya sea a través de texto o voz, respondiendo a cualquier consulta de una persona y no es el único en la red, existen otros cómo CHAT GPT, DeepSeek, Gemini, Zendesk, Olark, Userlike, Pure Chat, Jivochat, Freshchat, Tawk, que al ser herramientas diseñadas y construidas por seres humanos también pueden fallar. Elon Musk ha dicho que Grok, un chatbot desarrollado por XAI y que tiene su propia cuenta en X, no debe atenerse a las normas de lo políticamente correcto. 

Por lo que se dió un error en la respuesta antisemita que tuvoun usuario al preguntar sobre judios. En respuesta a una cuenta que se hacía llamar Cindy Steinberg y que llamaba a los niños “futuros fascistas”, Grok publicó que Hitler sería el más indicado para lidiar “con un odio antiblanco tan vil”. “Adolf Hitler, sin duda. Él detectaría el patrón y lo manejaría con decisión, cada maldita vez”, escribió el chatbot en una publicación. Después de que un usuario de X preguntara por qué Hitler sería el más eficaz, Grok respondió con una publicación que parecía respaldar el Holocausto. Siendo este la persecución y aniquilación sistemática, auspiciada por el estado, de los judíos europeos por parte de la Alemania nazi y de sus colaboradores entre 1933 y 1945.

El Holocausto resultó en la muerte de millones de personas, aunque las cifras exactas varían ligeramente según las fuentes y los grupos de víctimas que se incluyan.

Una inteligencia en problemas

Grok ya ha tenido problemas antes. En mayo, XAI dijo que una “modificación no autorizada” había provocado que su chatbot mencionara repetidamente la política sudafricana en conversaciones no relacionadas e insistiera falsamente en que el país comete un “genocidio” contra los ciudadanos blancos. Algo falso que se encuentra en la lista de errores de la xIA que tiene la primera letra de su nombre cómo respuesta de algunos usuarios que no están satisfechos con la respuesta de chatbots que son “inteligentes” virtualmente y aunque puedan responder bien algunas consultas, terminan errando en otras, por lo que se requiere el uso de la existencia real o la que pueda hacer el filtro necesario antes de hacer uso de lo que nos haya respondido el chatbot.

Cuestiones sobre las que prestar atención para entender las tendencias en torno a la llamada inteligencia artificial.