Por ejemplo, Melanie Dawes, directora ejecutiva de Ofcom, que regula las redes sociales en el Reino Unido, ha dicho que las plataformas de redes sociales tendrán que explicar cómo funciona su código. Y la Ley de Servicios Digitales de la Unión Europea recientemente aprobada, acordado el 23 de abril, también obligará a las plataformas a ofrecer más transparencia. En los Estados Unidos, los senadores demócratas introdujeron propuestas para una Ley de Responsabilidad Algorítmica en febrero de 2022. Su objetivo es brindar una nueva transparencia y supervisión de los algoritmos que rigen nuestras líneas de tiempo y noticias, y mucho más.

Permitir que el algoritmo de Twitter sea visible para otros y adaptable por los competidores, teóricamente significa que alguien podría simplemente copiar el código fuente de Twitter y lanzar una versión renombrada. Gran parte de Internet se ejecuta en software de código abierto:más famoso OpenSSLun conjunto de herramientas de seguridad utilizado por gran parte de la web, que en 2014 sufrió una importante brecha de seguridad.

Incluso ya hay ejemplos de redes sociales de código abierto. Mastodon, una plataforma de microblogging que se creó después de las preocupaciones sobre la posición dominante de Twitter, permite a los usuarios inspeccionar su código, que es publicado en el repositorio de software GitHub.

Pero ver el código detrás de un algoritmo no necesariamente le dice cómo funciona, y ciertamente no le da a la persona promedio mucha información sobre las estructuras comerciales y los procesos que intervienen en su creación.

“Es un poco como tratar de comprender a las criaturas antiguas solo con material genético”, dice Jonathan Gray, profesor titular de estudios de infraestructura crítica en el King’s College de Londres. “Nos dice más que nada, pero sería una exageración decir que sabemos cómo viven”.

Tampoco hay un solo algoritmo que controle Twitter. “Algunos de ellos determinarán lo que la gente ve en sus líneas de tiempo en términos de tendencias, contenido o seguimiento sugerido”, dice Catherine Flick, quien investiga informática y responsabilidad social en la Universidad De Montfort en el Reino Unido. Los algoritmos en los que la gente estará principalmente interesada son los que controlan qué contenido aparece en las líneas de tiempo de los usuarios, pero incluso eso no será muy útil sin los datos de entrenamiento.

“La mayoría de las veces, cuando la gente habla sobre la responsabilidad algorítmica en estos días, reconocemos que los algoritmos en sí mismos no son necesariamente lo que queremos ver; lo que realmente queremos es información sobre cómo se desarrollaron”, dice Jennifer Cobbe, investigadora postdoctoral. asociado en la Universidad de Cambridge. Eso se debe en gran parte a la preocupación de que los algoritmos de IA puedan perpetuar los prejuicios humanos en los datos utilizados para entrenarlos. Quién desarrolla algoritmos, y que datos usanpuede marcar una diferencia significativa en los resultados que escupen.

Para Cobbe, los riesgos superan los beneficios potenciales. El código de la computadora no nos da ninguna idea de cómo se entrenaron o probaron los algoritmos, qué factores o consideraciones entraron en ellos, o qué tipo de cosas se priorizaron en el proceso, por lo que el código abierto puede no marcar una diferencia significativa en la transparencia. en Twitter. Mientras tanto, podría introducir algunos riesgos de seguridad significativos.

Las empresas suelen publicar evaluaciones de impacto que investigan y prueban sus sistemas de protección de datos para resaltar las debilidades y fallas. Cuando se descubren, se reparan, pero los datos a menudo se redactan para evitar riesgos de seguridad. Los algoritmos de código abierto de Twitter harían que todo el código base del sitio web fuera accesible para todos, lo que podría permitir que los malos actores estudiaran minuciosamente el software y encontraran vulnerabilidades para explotar.

“No creo ni por un momento que Elon Musk esté considerando abrir toda la infraestructura y el lado de seguridad de Twitter”, dice Eerke Boiten, profesor de ciberseguridad en la Universidad De Montfort.

Ir arriba