Page 20 - 24 Horas en Movimiento Digital Edición 19-12-2023
P. 20

OpenAI anunció la


          implementación de nuevas



          estrategias para prevenir


          malos usos de la



          Inteligencia Artificial






                       penAI, la em-   cree que alguna de sus capaci-  deres de IA de OpenAI, Google  término medio en este debate en  año. Formaba parte de un pe-
                       presa de inteli-  dades de Inteligencia Artificial  y Microsoft advirtieron que la  su postura pública. Su director  queño grupo de dirigentes de
                       gencia artificial  se está volviendo peligrosa.   tecnología podría suponer un  ejecutivo, Sam  Altman, cree  OpenAI que dimitieron cuando
                       que está detrás    El equipo se sitúa entre el  peligro existencial para la hu-  que existen graves riesgos a  Altman fue despedido por el
          Ode ChatGPT, ex-             grupo de “Sistemas de seguri-  manidad, al mismo nivel que las  largo plazo inherentes a la tec-  consejo de administración de la
          puso sus planes para anticiparse  dad” de OpenAI, que trabaja en  pandemias o las armas nuclea-  nología, pero que también hay  empresa en noviembre. Madry
          a lo que cree que podrían ser  problemas existentes como la  res.                        que centrarse en solucionar los  regresó a la empresa cuando
          graves peligros de la tecnología  infusión de prejuicios racistas   Otros investigadores de la  problemas actuales. Según Alt-  Altman fue readmitido cinco
          que desarrolla, como permitir  en la IA, y el equipo de “Supe-  IA han afirmado que centrarse  man, la regulación para evitar  días después.
          que los malos actores aprendan  ralineación” de la empresa, que  en esos grandes y aterradores  los efectos nocivos de la IA no   OpenAI, que se rige por un
          a construir armas químicas y  investiga cómo garantizar que  riesgos permite a las empresas  debería dificultar la competen-  consejo sin ánimo de lucro cuya
          biológicas.                  la IA no perjudique a los huma-  desviar la atención de los efec-  cia de las empresas más peque-  misión es hacer avanzar la IA y
            El equipo de “Preparación”  nos en un futuro imaginado en  tos nocivos que la tecnología ya  ñas.  Al mismo tiempo, ha  hacerla útil para todos los hu-
          de OpenAI, dirigido por el pro-  el que la tecnología haya supe-  está teniendo.         empujado a la empresa a co-   manos, se encuentra en pleno
          fesor de Inteligencia Artificial  rado completamente a la inteli-  Un grupo cada vez mayor de  mercializar su tecnología y a re-  proceso de selección de nuevos
          del MIT  Aleksander Madry,  gencia humana.                 líderes empresariales de la IA  caudar fondos para acelerar su  miembros del consejo después
          contratará a investigadores en   La popularidad de ChatGPT  afirma que los riesgos son exa-  crecimiento.              de que tres de los cuatro conse-
          Inteligencia Artificial, informá-  y el avance de la tecnología de  gerados y que las empresas de-  Madry, un veterano investi-  jeros que despidieron a Altman
          ticos, expertos en seguridad na-  IA generativa han desencade-  berían seguir adelante con el  gador de IA que dirige el Center  dimitieran como parte de su re-
          cional y profesionales de la  nado un debate en la comunidad  desarrollo de la tecnología para  for Deployable Machine Lear-  greso.A pesar de las “turbulen-
          política para supervisar su tec-  tecnológica sobre lo peligrosa  ayudar a mejorar la sociedad, y  ning del MIT y codirige el MIT  cias” en el liderazgo, Madry
          nología, probarla continua-  que puede llegar a ser. A princi-  ganar dinero haciéndolo.   AI Policy Forum, se incorporó  cree que la junta de OpenAI se
          mente y advertir a la empresa si  pios de este año, destacados lí-  OpenAI ha enhebrado un  a OpenAI a principios de este  toma en serio los riesgos de la
                                                                                                                                 IA que está investigando. “Me
                                                                                                                                 di cuenta de que si realmente
                                                                                                                                 quiero dar forma a cómo la IA
                                                                                                                                 está impactando en la sociedad,
                                                                                                                                 ¿por qué no ir a una empresa
                                                                                                                                 que realmente lo está ha-
                                                                                                                                 ciendo?”.
                                                                                                                                    El equipo de preparación
                                                                                                                                 está contratando a expertos en
                                                                                                                                 seguridad nacional ajenos al
                                                                                                                                 mundo de la IA que puedan
                                                                                                                                 ayudar a la empresa a entender
                                                                                                                                 cómo afrontar los grandes ries-
                                                                                                                                 gos. OpenAI está iniciando con-
                                                                                                                                 versaciones con organizaciones
                                                                                                                                 como la Administración Nacio-
                                                                                                                                 nal de Seguridad Nuclear, que
                                                                                                                                 supervisa la tecnología nuclear
                                                                                                                                 en Estados Unidos, para garan-
                                                                                                                                 tizar que la empresa pueda estu-
                                                                                                                                 diar adecuadamente los riesgos
                                                                                                                                 de la IA, dijo Madry./infobae
   15   16   17   18   19   20