Por Oriana RivasPanampost

La compañía OpenAI, creadora del famoso chat ChatGPT, pretendió cuidarse las espaldas de una manera poco ética en caso de que exempleados pretendan hablar mal de la empresa. Aquel que considerara renunciar tenía dos opciones: firmar un acuerdo de confidencialidad para toda su vida o perder las acciones que compró cuando formaba parte de la nómina.

El acuerdo de confidencialidad era simple pero claro: como exempleado de OpenAI nunca podrá hablar mal de la empresa. Por lo que valdría preguntarse, ¿qué querrían ocultar? No resulta menos que irónico considerando que esta compañía se vende asegurando que busca “garantizar que la inteligencia artificial beneficie a toda la humanidad”. Algo que no aplica a sus exempleados.

El director ejecutivo, Sam Altman, emitió una disculpa pública para desligarse de que este tipo de coacción ocurra. Pero documentos a los que accedió el portal Vox demuestran que su firma está estampada en documentos de renuncia. Lo que se deduce de todo esto, es que OpenAI no solo podría estar ocultando información sobre el desarrollo de la inteligencia artificial, sino que además, sus directivos quizás quieren evitar que les pase lo mismo que Facebook cuando Frances Haugen reveló cómo al compañía priorizaba las ganancias por encima de la seguridad de los usuarios.

Contra la “tiranía del clic”

Frances Haugen es una exmiembro del equipo de integridad cívica de Facebook que se atrevió a desafiar a la “tiranía del clic” y entregó a los medios miles de documentos. Explicó en entrevistas cómo la empresa de Mark Zuckerberg se dio cuenta de que si cambiaba el algoritmo para hacerlo más seguro, “la gente pasaría menos tiempo en el sitio, haría clic en menos anuncios y ganaría menos dinero”.

El personal sabía que Instagram es “tóxico” para los adolescentes, los famosos podían burlar las normas y que era poco el trabajo que se hacía sobre contenido relacionado a tráficos de droga y trata de personas. Haugen rindió testimonio ante el Congreso de Estados Unidos y el año pasado publicó un libro sobre el tema. Zuckerberg quedó expuesto, aunque parece no haber escarmentado demasiado por lo adictivas que siguen siendo sus plataformas.

No es casualidad que Ilya Sutskever, confundador de OpenAI y Jan Leike, responsable de seguridad, hayan renunciado luego del lanzamiento de ChatGPT-4o, una nueva versión con capacidad de “imitar emociones humanas” y muchas otras novedades que dejan en pañales a las películas de Hollywood. Leike dejó un mensaje en X a los que aún siguen ahí: “Actúa con la seriedad apropiada para lo que estás construyendo. Estoy contando contigo”.

Bozal contra exempleados

La campañas publicitarias de las compañías de inteligencia artificial solo hablan de supuestos beneficios: ayudar a estudiantes, traducir simultáneamente una conversación entre dos personas que no hablan el mismo idioma, crear videos y un largo etcétera. Aunque en paralelo, los empleados que tuvieran la idea de renunciar se enfrentaban a documentos “con un lenguaje que otorga a la empresa una autoridad casi arbitraria para recuperar su capital o, lo que es igualmente importante, impedirles venderlo”.

Tal como indica el portal que reveló la información, llevar la inteligencia artificial al mundo “es una función que exige una enorme confianza pública y una transparencia seria”, pero, ¿cómo se puede confiar en una compañía que censura a su personal a cambio de hacerles perder su patrimonio?

Envía tu comentario

Subscribe
Notify of
guest
0 Comentarios
Inline Feedbacks
Ver todos los comentarios

Últimas