Pe scurt
- Părinții unui adolescent ucis în atacul armat de la școala Parkland din Florida din 2018 au inițiat un proiect numit The Shotline pentru a milita pentru legi mai stricte privind armele de foc în SUA.
- The Shotline folosește inteligența artificială pentru a recrea vocile copiilor uciși de violența armelor și a trimite înregistrările prin apeluri automate către legislatori.
- Proiectul ridică întrebări etice despre utilizarea inteligenței artificiale pentru a crea deepfake-uri ale vocilor persoanelor decedate.
The Shotline: Un proiect îndrăzneț
Părinții unui adolescent care a fost ucis în atacul armat de la școala Parkland din Florida din 2018 au pornit un proiect îndrăzneț numit The Shotline. Scopul acestuia este de a milita pentru legi mai stricte privind armele de foc în țară.
The Shotline utilizează inteligența artificială pentru a recrea vocile copiilor uciși de violența armelor. Aceste înregistrări sunt apoi trimise prin apeluri automate către legislatori.
Lansarea proiectului
Proiectul a fost lansat miercuri, la șase ani de la atacul în care un atacator armat a ucis 17 persoane și a rănit peste o duzină la o școală din Parkland, Florida. Acesta prezintă vocile a șase copii, unii cu vârste de până la zece ani, și tineri adulți care și-au pierdut viața în incidente de violență cu arme în întreaga SUA.
După ce introduci codul poștal, The Shotline îți găsește reprezentantul local și îți permite să plasezi un apel automat de la una dintre cele șase persoane decedate, cerând legi mai stricte privind controlul armelor.
Recrearea vocilor
Pentru a recrea vocile, părinții Oliver au folosit un serviciu de clonare a vocii de la ElevenLabs, o companie înființată acum doi ani, care a strâns recent 80 de milioane de dolari într-o rundă de finanțare condusă de Andreessen Horowitz.
Folosind doar câteva minute de eșantioane vocale, software-ul este capabil să recreeze voci în peste două duzini de limbi. Se pare că părinții Oliver au folosit postările de pe rețelele sociale ale fiului lor pentru a obține eșantioanele vocale.
Întrebări etice
Proiectul ridică întrebări etice despre utilizarea inteligenței artificiale pentru a genera deepfake-uri ale vocilor persoanelor decedate. Săptămâna trecută, Comisia Federală de Comunicații a declarat că apelurile automate realizate cu voci generate de inteligența artificială sunt ilegale.
Această decizie a venit la câteva săptămâni după ce alegătorii din New Hampshire au primit apeluri care imitau vocea președintelui Joe Biden, spunându-le să nu voteze în alegerile primare din statul lor. O analiză a unei companii de securitate numită Pindrop a dezvăluit că deepfake-ul audio al lui Biden a fost creat folosind software-ul de la ElevenLabs.

