Page 29 - AM240920
P. 29
Diabierna 20 september 2024 AWEMainta 29
TE C N O L OG I A
Scam di clonacion di bos cu AI
Starling Bank ta advirti di menasa tecnologico creciente
voz cu AI den e ultimo aña. Alarmantemente, casi mita di
e respondentenan no tabata consciente di e existencia di
tal estafanan, subrayando e falta di concientisacion publico
tocante e menasa nobo aki.
E encuesta tambe a revela cu 8% di e respondentenan lo a
transferi placa na un amigo of miembro di famia via telefon,
hasta si e yamada tabata parce inusual. Esaki ta mustra
con facil estafadonan por explota conexionnan emocional,
particularmente ora victimanan ta tende un voz familiar.
Pa combati e estafanan aki, Starling Bank ta recomenda
adopta e uso di un "frase sigur"—un frase unico cu por
wordo acorda pa miembronan di famia y amigonan pa veri-
fica identidad durante yamadanan telefonico. E metodo aki
STARLING Bank a lanta preocupacion tocante e aumento por yuda preveni estafadonan di imita un ser keri exitosa-
di estafanan cu ta usa clonacion di voz cu AI, avisando cu mente. Sinembargo, e banco ta conseha contra comparti e
miyones di hende por ta na riesgo. frasenan aki via mensahenan di texto, ya cu nan por wordo
intercepta pa estafadonan.
Estafadonan awor ta usando AI pa replica voznan cu sola-
mente tres seconde di audio, hopi biaha obteni for di vide- Riba un escala mas amplio, e industria tecnologico ta
onan of grabacionnan poni online. E tecnologia aki ta permiti trahando riba solucionnan pa detecta voznan genera pa
estafadonan imita amigonan of miembronan di famia den AI. Sistemanan avansa di autenticacion di voz por ofrece
yamadanan telefonico, engañando victimanan pa manda capanan adicional di proteccion door di analisa caracteris-
placa of comparti informacion sensitivo. ticanan vocal mas detaya cu AI por tin dificultad pa replica
precisamente.
Tecnologia di clonacion di voz cu AI ta usa modelonan
avansa di machine learning pa analisa e patronchinan di Ademas, plataformanan cu ta hospeda contenido di audio
habla di un persona, incluyendo tono, inflexion, y ritmo, pa of video por mester aumenta medidanan di seguridad pa
crea un replica di voz sumamente preciso. preveni mal uso di datonan di voz disponibel publicamente.
Solamente algun seconde di audio ta necesario pa e AI E capacidad creciente di clonacion di voz cu AI a lanta
genera un clon convincente. Estafadonan por obtene e preocupacionnan etico significante. OpenAI, un desaroy-
muestranan di audio aki facilmente for di medionan social ador lider di AI, a introduci un herment di replicacion di
of contenido online. voz yama Voice Engine pero a scoge pa no lanz'e publica-
mente, citando preocupacionnan tocante posibel mal uso
E tecnologia tras di e proceso aki ta envolve rednan adver- den estafanan y desinformacion.
sarial generativo (GANs). E sistemanan aki ta genera e voz
clona y ta sigui refin'e continuamente pa haci'e zona indistin- Esaki ta refleha e reto mas amplio cu desaroyadonan di AI
guibel for di e original. Unabes cu e voz ta clona, estafadonan ta enfrenta: balansa innovacion cu e riesgonan presenta pa
ta use pa escenifica yamadanan telefonico fraudulento, hopi usonan malicioso di AI.
biaha pretendido di ta un ser keri den angustia pa manipula
victimanan emocionalmente. Mientras tecnologia di AI ta avansa, e menasa di estafanan
di clonacion di voz ta probable di crece. Educacion publico,
Den un encuesta recien conduci pa Starling Bank cu Mortar vigilancia, y e adopcion di medidanan preventivo manera
Research, mas di 25% di e 3,000 adulto encuesta a bisa frasenan sigur ta crucial den proteha individuonan for di e
cu nan a wordo ge-target pa estafanan di clonacion di forma emergente aki di cibercrimen.