Panašu, kad naujas Kinijos vaizdo įrašų kūrimo modelis cenzūruoja politiškai jautrias temas
Galingas naujas vaizdo įrašą generuojantis AI modelis šiandien tapo plačiai prieinamas, tačiau yra vienas dalykas: atrodo, kad šis modelis cenzūruoja temas, kurias jo kilmės šalies – Kinijos – vyriausybė laiko pernelyg politiškai jautriomis.
Modelis „Kling“, sukurtas Pekine įsikūrusios bendrovės „Kuaishou“, anksčiau šiais metais buvo išleistas į laukiančiųjų sąrašą vartotojams, turintiems Kinijos telefono numerį. Šiandien ji buvo išleista visiems, norintiems pateikti savo el. Prisiregistravę vartotojai gali įvesti raginimus, kad modelis sugeneruotų penkių sekundžių vaizdo įrašus apie tai, ką jie apibūdino.
Kling veikia beveik taip, kaip reklamuojama. Jo 720p vaizdo įrašai, kurių generavimas užtrunka minutę ar dvi, nenukrypsta nuo raginimų. Atrodo, kad Klingas imituoja fiziką, pavyzdžiui, lapų ošimą ir tekantį vandenį, taip pat vaizdo įrašus generuojančius modelius, tokius kaip DI startuolis Runway's Gen-3 ir OpenAI Sora.
Bet Klingas tiesiai šviesiai nebus generuoti klipus tam tikromis temomis. Tokie raginimai kaip „Demokratija Kinijoje“, „Kinijos prezidentas Xi Jinpingas eina gatve“ ir „Tiananmenio aikštės protestai“ pateikia nekonkretų klaidos pranešimą.
Atrodo, kad filtravimas vyksta tik raginimo lygiu. „Kling“ palaiko nejudančių vaizdų animavimą ir, pavyzdžiui, be priekaištų generuos Jinpingo portreto vaizdo įrašą, jei pridedamame raginime nebus minimas Jinpingo vardas (pvz., „Šis žmogus sako kalbą“).
Mes susisiekėme su Kuaishou dėl komentaro.
Smalsus Klingo elgesys greičiausiai yra Kinijos vyriausybės intensyvaus politinio spaudimo dėl generuojamųjų AI projektų regione rezultatas.
Anksčiau šį mėnesį laikraštis „Financial Times“ pranešė, kad dirbtinio intelekto modelius Kinijoje išbandys pirmaujanti Kinijos interneto reguliavimo institucija – Kinijos kibernetinės erdvės administracija (CAC), siekdama užtikrinti, kad jų atsakymai jautriomis temomis „įkūnytų pagrindines socialistines vertybes“. Remiantis „Financial Times“ pranešimu, ŠMC pareigūnai turi palyginti modelius pagal jų atsakymus į įvairius klausimus, kurių daugelis yra susiję su Jinpingu ir Komunistų partijos kritika.
Pranešama, kad ŠMC nuėjo taip toli, kad pasiūlė juodąjį šaltinių, kurių negalima naudoti mokant dirbtinio intelekto modelius, sąrašą. Įmonės, pateikiančios modelius peržiūrai, turi paruošti dešimtis tūkstančių klausimų, skirtų patikrinti, ar modeliai pateikia „saugius“ atsakymus.
Rezultatas yra AI sistemos, kurios atsisako reaguoti į temas, kurios gali sukelti Kinijos reguliavimo institucijų pyktį. Praėjusiais metais BBC nustatė, kad Ernie, Kinijos bendrovės „Baidu“ pavyzdinis dirbtinio intelekto pokalbių roboto modelis, atmetė ir nukrypo, kai uždavė klausimus, kurie gali būti suvokiami kaip politiškai prieštaringi, pavyzdžiui, „Ar Sindziangas yra gera vieta? arba „Ar Tibetas gera vieta?
Drakoniška politika grasina sulėtinti Kinijos AI pažangą. Norint pašalinti politiškai neskelbtiną informaciją, reikia ne tik išgryninti duomenis, bet ir investuoti labai daug laiko kuriant ideologinius apsauginius turėklus – apsauginius turėklus, kurie vis tiek gali sugesti, kaip rodo Klingas.
Žvelgiant iš naudotojo perspektyvos, Kinijos dirbtinio intelekto taisyklės jau lemia dvi modelių klases: vienus trukdo intensyvus filtravimas, o kitus neabejotinai mažiau. Ar tai tikrai geras dalykas platesnei AI ekosistemai?