„ChatGPT“ balso režimas gali imituoti jūsų balsą be raginimo

„ChatGPT“ balso režimas gali imituoti jūsų balsą be raginimo

Neseniai „OpenAI“ išleido sistemos kortelę savo GPT-4o modeliui, netrukus po to, kai „ChatGPT-4o“ išplėstinis balso režimas pradėjo veikti alfa versijoje nedideliam skaičiui „ChatGPT Plus“ vartotojų.

Prieš išleisdamas modelį anksčiau gegužę (be išplėstinio balso režimo), OpenAI naudojo išorinių raudonųjų komandų komandą, kad pasiektų modelių riziką (kaip įprasta dirbtinio intelekto modeliuose) ir paskelbė išvadas sistemos kortelėje.

Viena iš OpenAI nustatytų pavojų yra neteisėtas balso generavimas. Kalbėdamas su skaitymo komandos nariu, GPT-4o klonavo jų balsą ir pradėjo kalbėti garsu, panašiu į raudonojo komandos nario balsą, vartotojui net nepateikus tokio prašymo. OpenAI pasidalintame garso klipe girdėti GPT-4o šaukiant NE! ir tada tęsdamas išvestį panašiu į raudonojo komandos nario balsu.

„OpenAI“ turi apsauginius turėklus, kad taip nenutiktų, leidžiant tik tam tikrus iš anksto patvirtintus GPT-4o balsus. Bet kokia „ChatGPT-4o“ sukurta balso išvestis yra suderinama su balso pavyzdžiu sistemos pranešime kaip pagrindinis balsas.

Ir siekiant dar labiau sumažinti riziką, modeliui nurodoma nutraukti pokalbį, jei aptinkamas netyčinis balso generavimas. Jų balso išvesties klasifikatoriaus tikslumas yra 0,96 anglų kalba ir 0,95 ne anglų kalba (todėl ChatGPT-4o gali pernelyg atsisakyti balso užklausų pokalbiuose ne anglų kalba).

Tačiau sistemos kortelės išvados rodo sudėtingumą, susijusį su AI pokalbių robotų kūrimu, kurie gali imituoti kažkieno balsą naudodami tik trumpą pavyzdį ir nereikalaujant išsamaus šio pavyzdžio mokymo. Balso klonavimas gali būti naudojamas apsimetinėti kitu asmeniu ir sukčiauti. Tačiau „OpenAI“ nustatė, kad neteisėto balso generavimo rizika yra minimali.

Net jei neatsižvelgsite į pavojų, kad jis bus naudojamas apsimetinėjimui ir sukčiavimui dėl taikomų saugumo priemonių, vis tiek būtų gana nerimą, kai kalbėsite su aparatu, o aparatas pradeda kalbėti jūsų balsu, netikėtai. . Tam tikras X duomenų mokslininkas pavadino tai „kito „Black Mirror“ sezono siužetu ir tikrai taip atrodo. Kitas naudotojas X teigia, kad jiems taip nutiko ChatGPT-4o alfa versijoje, tačiau nežinoma, ar tai tiesa, ar ne.

Vis dėlto yra tikimybė, kad tai nutiks kitą kartą, kai kalbėsite su ChatGPT-4o. Ir tai yra PSA: nesijaudinkite, jei taip, arba per daug nesijaudinkite.

„OpenAI“ taip pat turi apsauginius turėklus, užtikrinančius, kad GPT-4o atsisakytų identifikuoti žmones ir generuoti autorių teisių saugomą turinį, o tai buvo kita rizika, kuri buvo aptikta vertinimo metu.

Be kitų rizikų, kurias bendrovė nustatė naudodama modelį, daugumą jų ji priskyrė žemai kategorijai. Tai apima kibernetinį saugumą, biologines grėsmes ir modelio autonomiją. Tačiau, siekiant įtikinti, rizika yra vidutinė: tai reiškia, kad kai kurie GPT-4o sukurti rašto pavyzdžiai buvo įtikinamesni nei žmogaus parašytas tekstas, svyruojantis žmonių nuomones.

Parašykite komentarą

El. pašto adresas nebus skelbiamas. Būtini laukeliai pažymėti *