Hace unos días Meta lanzó su nuevo chatbot basado en la inteligencia artificial, llamado BlenderBot 3, que se supone que es capaz de mantener una conversación con casi cualquier persona en Internet sin caer en algún que otro problema que ya hemos vivido.
Si recordamos, en julio, noticias /tecnologia/google-despide-ingeniero-software-declaro-chatbot-ia-compania-era-consciente-1098327#:~:text=Ahora%20tal%20como%20confirman%20en,LaMDA%20%E2%80%9Cson%20totalmente%20infundados%E2%80%9D." title=" Google despide al ingeniero de software que declaró que un chatbot de IA de la compañía "era consciente""> Google despidió a un ingeniero por decir que su chatbot LaMDA era sensible y estaba lanzando algún que otro mensaje extraño. Además afirmaron que esta IA se podría considerar racista y sexista. Y en 2016, un chatbot de Microsoft llamado Tay fue noticias / internet /microsoft-desconecta-su-chatbot-tay-convertirse-fascista-42449" title="Microsoft desconecta su chatbot Tay, tras convertirse en un fascista">desconectado en 48 horas después de que empezara a alabar a Adolf Hitler.
"BlenderBot 3 está diseñado para mejorar sus habilidades conversacionales y su seguridad a través de la retroalimentación de las personas que chatean con él", vende Meta en una entrada de blog sobre el nuevo chatbot, "centrándose en la retroalimentación útil mientras evita aprender de las respuestas inútiles o peligrosas".
Pues bien, con todo esto sobre la mesa, BlenderBot 3 ya vemos cómo nació con la idea de resolver todos estos problemas y convertirse realmente en un chatbot útil e inteligente. Sin embargo, nada más lejos de la realidad. Esta novedad ya está haciendo una serie de afirmaciones falsas basadas en las interacciones que tuvo con humanos reales en línea.
Por ejemplo, en Mashable destacan algunas afirmaciones de que Donald Trump ganó las elecciones presidenciales de 2020 en Estados Unidos y que actualmente es presidente, teorías conspiratorias antisemitas, así como comentarios en los que se acusa a Facebook de todas sus " noticias falsas" (y eso que es de Meta).
Al conocer esto, la compañía ha respondido: "los chatbots de IA conversacional a veces imitan y generan comentarios inseguros, tendenciosos u ofensivos, por lo que hemos realizado estudios y desarrollado nuevas técnicas para crear salvaguardias para BlenderBot 3. A pesar de este trabajo, todavía puede hacer comentarios ofensivos, por lo que estamos recogiendo opiniones".
Destacar que ya desde su blog, Meta se anticipa a estos problema y ya afirma de la posibilidad de que esto ocurra y exige a los probadores que hagan sus test de forma consciente y responsable. Sin embargo, parece que les llama más la atención explorar los límites de estas IA y Google sostiene que su chatbot de IA es "bastante racista" y que la ética del sistema es un lavado de cara">volver a dar que hablar con respecto a un problema que ya sabemos que existe.
0 Comments:
Publicar un comentario