Page 20 - 24 Horas en Movimiento Digital Edición 19-12-2023
P. 20
OpenAI anunció la
implementación de nuevas
estrategias para prevenir
malos usos de la
Inteligencia Artificial
penAI, la em- cree que alguna de sus capaci- deres de IA de OpenAI, Google término medio en este debate en año. Formaba parte de un pe-
presa de inteli- dades de Inteligencia Artificial y Microsoft advirtieron que la su postura pública. Su director queño grupo de dirigentes de
gencia artificial se está volviendo peligrosa. tecnología podría suponer un ejecutivo, Sam Altman, cree OpenAI que dimitieron cuando
que está detrás El equipo se sitúa entre el peligro existencial para la hu- que existen graves riesgos a Altman fue despedido por el
Ode ChatGPT, ex- grupo de “Sistemas de seguri- manidad, al mismo nivel que las largo plazo inherentes a la tec- consejo de administración de la
puso sus planes para anticiparse dad” de OpenAI, que trabaja en pandemias o las armas nuclea- nología, pero que también hay empresa en noviembre. Madry
a lo que cree que podrían ser problemas existentes como la res. que centrarse en solucionar los regresó a la empresa cuando
graves peligros de la tecnología infusión de prejuicios racistas Otros investigadores de la problemas actuales. Según Alt- Altman fue readmitido cinco
que desarrolla, como permitir en la IA, y el equipo de “Supe- IA han afirmado que centrarse man, la regulación para evitar días después.
que los malos actores aprendan ralineación” de la empresa, que en esos grandes y aterradores los efectos nocivos de la IA no OpenAI, que se rige por un
a construir armas químicas y investiga cómo garantizar que riesgos permite a las empresas debería dificultar la competen- consejo sin ánimo de lucro cuya
biológicas. la IA no perjudique a los huma- desviar la atención de los efec- cia de las empresas más peque- misión es hacer avanzar la IA y
El equipo de “Preparación” nos en un futuro imaginado en tos nocivos que la tecnología ya ñas. Al mismo tiempo, ha hacerla útil para todos los hu-
de OpenAI, dirigido por el pro- el que la tecnología haya supe- está teniendo. empujado a la empresa a co- manos, se encuentra en pleno
fesor de Inteligencia Artificial rado completamente a la inteli- Un grupo cada vez mayor de mercializar su tecnología y a re- proceso de selección de nuevos
del MIT Aleksander Madry, gencia humana. líderes empresariales de la IA caudar fondos para acelerar su miembros del consejo después
contratará a investigadores en La popularidad de ChatGPT afirma que los riesgos son exa- crecimiento. de que tres de los cuatro conse-
Inteligencia Artificial, informá- y el avance de la tecnología de gerados y que las empresas de- Madry, un veterano investi- jeros que despidieron a Altman
ticos, expertos en seguridad na- IA generativa han desencade- berían seguir adelante con el gador de IA que dirige el Center dimitieran como parte de su re-
cional y profesionales de la nado un debate en la comunidad desarrollo de la tecnología para for Deployable Machine Lear- greso.A pesar de las “turbulen-
política para supervisar su tec- tecnológica sobre lo peligrosa ayudar a mejorar la sociedad, y ning del MIT y codirige el MIT cias” en el liderazgo, Madry
nología, probarla continua- que puede llegar a ser. A princi- ganar dinero haciéndolo. AI Policy Forum, se incorporó cree que la junta de OpenAI se
mente y advertir a la empresa si pios de este año, destacados lí- OpenAI ha enhebrado un a OpenAI a principios de este toma en serio los riesgos de la
IA que está investigando. “Me
di cuenta de que si realmente
quiero dar forma a cómo la IA
está impactando en la sociedad,
¿por qué no ir a una empresa
que realmente lo está ha-
ciendo?”.
El equipo de preparación
está contratando a expertos en
seguridad nacional ajenos al
mundo de la IA que puedan
ayudar a la empresa a entender
cómo afrontar los grandes ries-
gos. OpenAI está iniciando con-
versaciones con organizaciones
como la Administración Nacio-
nal de Seguridad Nuclear, que
supervisa la tecnología nuclear
en Estados Unidos, para garan-
tizar que la empresa pueda estu-
diar adecuadamente los riesgos
de la IA, dijo Madry./infobae