O’z san’atingizni AI generatorlaridan qanday saqlash kerak haqida malumot

O’z san’atingizni AI generatorlaridan qanday saqlash kerak haqida malumot

AI tomonidan yaratilgan tasvirlar qochib bo’lmaydigandek tuyuladi. U ichida siz o’ynagan video o’yinlaryilda siz tomosha qilgan filmlar, va ijtimoiy media platformalarini suv bosdi. Hatto odatlanib qolgan jismoniy apparatni targ’ib qilish Haqiqiy, inson rassomlari raqamli rasmlar va illyustratsiyalar yaratishda foydalanadilar, bu texnologiyadan allaqachon o’zini ko’chirayotganlarni juda xafa qiladi.

Uning keng tarqalgan tabiati, ayniqsa, o’z asarlaridan roziliksiz yoki tovonsiz foydalanishni to’xtatish, ularning martaba va turmush tarzini buzish bilan tahdid qiladigan narsani yaxshilash uchun kurashayotgan ijodkorlar uchun juda dahshatli ko’rinadi. Generativ AI modellarini o’rgatish uchun mo’ljallangan ma’lumotlar hovuzlari ko’pincha Internetdan beg’araz ravishda o’chirilgan tasvirlarni o’z ichiga oladi va ba’zi AI tasvir ishlab chiqaruvchi vositalari foydalanuvchilarga o’zlari taqlid qilmoqchi bo’lgan mos yozuvlar tasvirlarini yuklash imkonini beradi. Ko’pgina ijodkorlar o’z ishlarini ijtimoiy tarmoqlar va onlayn portfellar orqali reklama qilishlari kerak, shuning uchun hamma narsani oflayn rejimga o’tkazish foydali yechim emas. Va sun’iy intellekt texnologiyasi atrofida qonuniy aniqlik yo’qligi qarshi turish qiyin bo’lgan yovvoyi G’arb muhitini yaratdi. Qiyin, lekin imkonsiz emas.

Asboblar tez-tez bo’lsa-da murakkab va vaqt talab qiladi, bir nechta sun’iy intellekt kompaniyalari ijodkorlarga o’z ishlarini treningdan voz kechish usullarini taqdim etadi. Kengroq himoya qilishni xohlaydigan vizual rassomlar uchun Glaze va Kin.Art kabi vositalar mavjud bo’lib, ular asarlarni o’qitish uchun foydasiz qiladi. Hozirgacha biz topgan eng yaxshi yechimlar orasida qanday harakat qilish mumkin.

O’chirish

Generativ AI modellari o’qitish ma’lumotlar to’plamiga bog’liq va ularning ortidagi kompaniyalar ushbu potentsial ma’lumotlar hovuzlarini cheklashdan qochishga undaydi. Shunday qilib, ular ko’pincha rassomlarga o’z ishlaridan voz kechishga ruxsat berishsa-da, jarayon qo’pol va mehnat talab qilishi mumkin — ayniqsa sizda katta hajmdagi ish katalogingiz bo’lsa.

O’chirish uchun odatda AI provayderiga maxsus shakl orqali yoki to’g’ridan-to’g’ri elektron pochta orqali, shuningdek himoya qilmoqchi bo’lgan tasvirlarning nusxalari va yozma tavsiflari bilan so’rov yuborish kerak. Bundan tashqari, agar siz uchinchi shaxslarga rasmlaringizni litsenziyalashiga rozilik bergan boʻlsangiz, shartlar sunʼiy intellektni oʻqitish uchun litsenziyani oʻz ichiga olishi mumkin. Ishingizni joylashtiradigan har qanday platformalar uchun foydalanuvchi shartnomalarini skanerlash va ular qanday huquqlarga ega ekanligini tekshirishga arziydi. Ammo turli xil AI vositalarining siyosatlari farq qiladi — bu erda ba’zi mashhurlaridan qanday voz kechish mumkin.

OpenAI DALL-E

OpenAI oʻtgan yilning sentabrida ijodkorlarga oʻzining DALL-E 3 generativ AI modeli bilan bir qatorda oʻquv maʼlumotlaridan oʻz ishlarini olib tashlashga ruxsat bera boshladi va bu amal qilish oson jarayonlardan biri. Kontent yaratuvchilari yoki egalari shunchaki kerak OpenAI-ga ariza yuboring ishni kelajakdagi o’quv ma’lumotlar to’plamidan chiqarib tashlashni so’rash, shu jumladan tasvir nusxasi, uning tavsifi va ushbu rasmga bo’lgan huquqlarga ega ekanligingizni tasdiqlovchi katakchani belgilash.

Afsuski, siz uchun alohida shakl topshirishingiz kerak bo’ladi har bir OpenAI ma’lumotlar to’plamidan chiqarib tashlashni xohlagan tasvir, ba’zi odamlar uchun minglab ishlarni tashkil qilishi mumkin; OpenAI qancha san’atkor bu sinovni boshdan kechirganini oshkor qilmadi.

AI modellarini o'rgatishda foydalanishdan voz kechish uchun zarur bo'lgan OpenAI shaklidan olingan skrinshot.

OpenAIs treningidan voz kechmoqchi boʻlgan har bir sanʼat asari uchun yagona shaklni topshirishingiz kerak, bu keng portfelga ega ijodkorlar uchun haqiqatga toʻgʻri kelmaydi.Rasm: OpenAI

Agar siz o’z ishlaringizni faqat o’zingizning veb-saytingizda joylashtirsangiz, yanada samaraliroq variant bo’lishi mumkin. Siz .. qila olasiz; siz … mumkin bu yerga bog’langan ko’rsatmalarga amal qiling umumiy foydalanish mumkin bo’lgan internet manbalaridan ma’lumotlarni o’chirish uchun foydalaniladigan «GPTBot» veb-brauzerini blokirovka qilish, bu undagi barcha tarkibni himoya qilishi kerak. Biroq, ushbu usulning salbiy tomoni shundaki, devor bilan o’ralgan himoyadan tashqarida, masalan, ijtimoiy tarmoqlarda joylashtirilgan tasvirlar hali ham qirib tashlash xavfi ostida. Shaklni yuborish, hech bo’lmaganda, OpenAI litsenziyalangan uchinchi tomon orqali rasmlarni olmagan bo’lsa, ishingiz kengroq tarmoq bilan himoyalanganligini ta’minlaydi.

Ushbu ikkala jarayon faqat kelajakdagi o’quv ma’lumotlar to’plamiga kirishdan himoya qiladi. OpenAI ta’kidlashicha, uning sun’iy intellekt modellari allaqachon o’rganilgan ma’lumotlarni saqlamaydi, shuning uchun agar sizning ishingiz DALL-E 3 yoki uning oldingi iteratsiyalari tomonidan iste’mol qilingan deb hisoblasangiz, uni olib tashlash uchun juda kech.

DALL-E 3, shuningdek, ilgari Microsoft sifatida tanilgan Designer-dan Image Creator tomonidan ishlatiladigan modeldir Bing tasvir yaratuvchisi. Shunday qilib, OpenAI-dan to’g’ridan-to’g’ri voz kechish jarayoni Image Creator-ni sizning ishlaringizga o’rgatishning oldini olishi kerak.

Adobe Firefly

Albatta, bu har bir AI kompaniyasi uchun qilsa Rassomlarga o’z asarlarini trening ma’lumotlaridan olib tashlashga ruxsat berish, boshqalari esa bunday xizmatni ochiq reklama qilmaydi. Va agar ular o’zlariga tegishli platformada modellarni o’rgatayotgan bo’lsalar, ushbu platforma foydalanuvchilariga umuman voz kechishlari mumkin emas. Bu o’zining Creative Cloud to’plamida, shu jumladan Photoshopning generativ to’ldirish vositasida Firefly nomli modeldan foydalanadigan ijodiy dasturiy gigant Adobe bilan bog’liq.

Adobe kompaniyasi Firefly tijorat va qonuniy jihatdan xavfsiz ekanligini e’lon qiladi, chunki u to’liq kompaniyaning o’zining Adobe Stock fond tasvir platformasida o’qitilgan. Ammo Adobe Stock hissadorlari uchun Adobe AI modellarini o’qitishdan voz kechish uchun hech qanday vosita yo’q, buning natijasida ba’zi kompaniyani tanqid qiladigan mavjud foydalanuvchilar ularning ruxsatini so’ramagani uchun. Agar siz ishingiz Firefly-ni yaxshilash uchun ishlatilishini xohlamasangiz, uni Adobe Stock-ga joylashtira olmaysiz.

Skrinshot Adobe Stockning hissa qo'shuvchilar uchun tez-tez so'raladigan savollaridan olingan

Bu Adobe tez-tez so’raladigan savollaridagi ushbu qatordan ko’ra aniqroq bo’lmaydi. Agar siz Firefly-ni o’rgatmoqchi bo’lmasangiz, Adobe Stock-dan qoching.Rasm: Adobe

Asosan, Adobe yondashuvi kerak Bu birjadan tashqari foydalanuvchilarning Firefly haqida qayg‘urishi shart emasligini anglatadi. Ammo haqiqat shundaki, platformaga ko’plab pirat asarlar yuklangan. Agar kimdir sizning ishingizni Adobe Stock-ga aldab yuklaganini aniqlasangiz, Adobe-ni yuborishingiz mumkin IP huquqlarining buzilishi to’g’risidagi bildirishnoma uni platformadan olib tashlash uchun.

huzur 

Meta-ning AI modellarini o’rgatishdan qochmoqchi bo’lgan ijodkorlar shunga o’xshash halqalardan o’tishlari kerak. Meta «dan foydalanmoqdauning mahsulotlari va xizmatlaridan ma’lumot” o‘zining generativ sun’iy intellekt modellarini o‘rgatish uchun, shuning uchun Facebook, Instagram va Threads kabi platformalarga yuklagan yoki tarixan yuklagan shaxsiy har qanday narsa AI ta’limi uchun adolatli o‘yindir. Agar siz ushbu xizmatlardan birortasida hisob qaydnomangiz bo’lmasa, siz uning AI mashinasini oziqlantirishdan qochgan bo’lishingiz mumkin, ammo mavjud hisoblarni o’chirish va/yoki ularga kelajakdagi ishlarni yuklamaslik keyingi eng yaxshi narsadir.

Siz .. qila olasiz; siz … mumkin Meta-ga shaklni yuboring kompaniyadan o’zining generativ AI modellarini o’rgatishda foydalanilayotgan shaxsiy ma’lumotlarni to’g’irlash yoki o’chirishni so’rash, lekin bu ma’lumot uchinchi tomon tomonidan taqdim etilgan taqdirdagina. Bu, masalan, Instagram-da ixtiyoriy ravishda namoyish qilgan san’atni istisno qilishga imkon bermaydi. Ko’pgina rassomlar bu vosita qanchalik tez-tez so’rovlarni ko’rib chiqa olmasligini tanqid qilib, asabiylashuvchi jarayon deb topdilar. Kontseptual rassom Betaniy Berg aytdi Simli olib tashlash shakli «ular haqiqatan ham biror narsa qilmoqchi bo’lgandek ko’rsatish uchun shunchaki soxta piar edi» kabi tuyuldi.

AI modellarini o'qitishdan ma'lumotlarni o'chirish uchun Meta formasidan olingan skrinshot.

Shuni yodda tutingki, Meta siz o’z platformalariga yuklagan har qanday kontentga nisbatan ba’zi huquqlarga ega bo’ladi, shuning uchun eng samarali yechim ulardan butunlay qochishdir.Rasm: Meta

Bundan tashqari, siz o’zingizning shaxsiy ma’lumotlaringizni boshqarish orqali uchinchi shaxslar Meta bilan baham ko’rishlarini cheklashingiz mumkin Facebookdan tashqari faoliyat. Ushbu vosita qaysi saytlar va xizmatlar sizning ma’lumotlaringizni Meta-ga berayotganini ko’rsatadi va sizning shaxsingizni bunday ma’lumotlar bilan bog’laydigan aloqani uzish imkonini beradi. Bu allaqachon yuklangan maʼlumotlarni oʻchirib tashlamaydi, biroq u foydalanuvchilarga oʻz ishlarini joylashtirgan platformalar bu maʼlumotni toʻgʻridan-toʻgʻri Meta-ga qaytarayotganligini kuzatish imkonini berishi kerak.

Ya’ni, Meta o’zining generativ AI modellarini o’rgatish uchun «onlayn ochiq ma’lumotlardan» ham foydalanadi va u o’zining ma’lumotlar to’plamini oshkor qilmaydi. Shunday qilib, bu katta kontent hovuzida nima borligini aniq bilishning hech qanday usuli va tashqarida qolishning ishonchli usuli yo’q.

Stability AI, Midjourney va boshqalar haqida nima deyish mumkin?

Ikkita eng mashhur generativ AI vositalari — Midjourney va Stability AI’s Stabil Diffusion — Raqamli Mingyillik mualliflik huquqi to’g’risidagi qonun (DMCA) ostida mualliflik huquqini buzuvchi materiallarni olib tashlaydi. Ammo bu ma’lumotlar ularning tegishli Foydalanish shartlari siyosatida ko’milgan va jarayonlar qo’poldir. Bu, shuningdek, qat’iy ravishda voz kechish vositasi emas va hech bir kompaniya kelajakdagi o’quv ma’lumotlari havzalariga singib ketishdan voz kechish uchun vositani taqdim etmaydi.

Ikkala xizmat uchun ham kompaniyalarga to’g’ridan-to’g’ri elektron pochta xabarlarini yuborishingiz kerak bo’ladi. Midjourney manziliga etib borish mumkin takedown@midjourney.com. Barqaror AI uchun so’rovlaringizni ikkalasiga ham elektron pochta orqali yuboring mariya@stability.ai va legal@stability.ai. barqarorlikning foydalanuvchi shartlari siz taqdim etishingiz kerak bo’lgan narsalarni emas, balki talab qiladigan ma’lumotni ko’rsatadi O’rta sayohat, va DMCA mualliflik huquqining buzilishi haqidagi bildirishnomalarning aksariyati, odatda, asl asarlarning tavsifini, ularda buzilgan tasvir qaerda joylashganligini, aloqa ma’lumotlarini va imzoingiz nusxasini o’z ichiga oladi.

Boshqa, kichikroq AI provayderlari ham DCMA kabi qoidalar tufayli intellektual mulk huquqlarini buzadigan ma’lumotlarni o’chirishga o’xshash yondashuvni taqdim etishi mumkin, bu turli muvaffaqiyatlarga erishadi — agar ishonchingiz komil bo’lmasa, to’g’ridan-to’g’ri AI provayderiga murojaat qiling.

Ishimni generativ AIdan yana qanday himoya qilishim mumkin?

Bularning barchasini hisobga olsak, AI kompaniyalari bilan to’g’ridan-to’g’ri ishlashda rassomlarning imkoniyatlari juda cheklanganligi aniq. Biroq, tashqi tomondan, bir nechta vositalar va xizmatlar ijodkorlarga yaxshiroq himoyani yoki hattoki huquqbuzarliklar — qarshi kurashganda. Turli xil vositalar boshqacha ishlaydi, lekin umuman olganda, ular sizning vizual san’atingizni samarali mashg’ulotlarni chalkashtirib yuboradigan yoki bloklaydigan jarayonlar orqali boshqaradi. Shunday qilib, sizning ishingiz AI modeli uchun qirib tashlangan bo’lsa ham, bu model (ideal holda) uni qayta ishlab chiqarishni o’rganmaydi.

sir

Glaze ishga tushirgichining skrinshoti.

Glaze-ni ishga tushirganingizda, ishingizni himoya qilish uchun kerakli resurslarni yuklab olish uchun unga biroz vaqt berishingiz kerak bo’ladi.Rasm: Qum laboratoriyasi, Chikago universiteti

Mashg’ulotlarga qarshi eng mashhur vositalardan biri sir, Chikago universitetidan bir guruh tomonidan boshlangan loyiha. Bepul foydalanish vositasi o’ziga xos plash sifatida ishlaydi va AI dasturlarini o’qishga urinayotgan tasvirlarga piksel darajasidagi o’zgarishlar kiritadi. Haqiqiy odamlar odatda bu o’zgarishlarni juda batafsil tasvirlarda ko’ra olmaydi, shuning uchun insonning ko’rish tajribasiga kam ta’sir qiladi, lekin bir xil materiallar bilan ta’minlangan sun’iy intellekt tasvir generatorlari buni butunlay boshqa narsa deb bilishadi, ya’ni uning o’ziga xosligini takrorlashga harakat qiladigan har bir kishi. san’at uslubi buni qila olmaydi.

Glaze uchun mavjud Windows yoki macOS. GPU va GPU bo’lmagan versiyalar mavjud Windows, lekin GPU variantini ishga tushirish ayniqsa talab qiladi ushbu ro’yxatdan Nvidia GPU kamida 3.6 GB xotira bilan. (Ishlab chiquvchilarning ta’kidlashicha, Glaze odatda ishga tushirish uchun taxminan 5 Gb tizim xotirasidan foydalanadi.) Undan foydalanish juda oddiy: birinchi ishga tushirilganda dastur avtomatik ravishda bir qator mashina o’rganish kutubxonalarini va rasmlaringizni bulutli qilish uchun zarur bo’lgan boshqa resurslarni yuklab oladi. Bu tugallangach, yuqori chap burchakdagi “Tanlash” oynasiga o‘ting va kompyuteringizdagi qaysi rasmlarni Glaze qilishni xohlayotganingizni tanlang. Ular to’plamlarda yuklanishi mumkin, shuning uchun bu individual rad etish so’rovlarini yuborishdan ko’ra tezroq.

Siz Glaze ilovasining kuchliligi bilan tajriba o’tkazishni xohlashingiz mumkin — shunga o’xshash oddiy rasmlarda maksimal intensivlikda oynalash natijalarni buzishi mumkin.Rasm: Jess Weatherbed / The Verge va Image: Jess Weatherbed / The Verge

Keyin siz Glaze qoplamasining intensivligini «juda past» dan «juda yuqori» ga sozlashingiz mumkin, ikkinchisi sun’iy intellektdan ko’proq himoya qiladi, lekin odamlarga ko’rinadigan o’zgarishlar ehtimolini oshiradi. Render sifati, yana bir variant, tayyor tasvirning umumiy sifatini aniqlaydi — yuqori sifatli renderlash yanada yaxshi ko‘rinadi va ko‘proq himoyani ta’minlaydi, lekin qayta ishlash ancha uzoq davom etadi. Umuman olganda, tayyor natija asl nusxangizdan deyarli o’zgarmagan ko’rinishi kerak. Ammo yaqindan tekshirish kichik farqlarni aniqlaydi, xuddi teksturali yuvish unga qo’llangandek.

ituzum

Nightshade ishga tushirgichining skrinshoti.

Nightshade Glaze-ga juda o’xshash foydalanuvchi interfeysiga ega, bu xuddi shu jamoa tomonidan ishlab chiqilayotganini hisobga olsak, bu ajablanarli emas.Rasm: Qum laboratoriyasi, Chikago universiteti

ituzum, Glaze ortidagi jamoadan, shunga o’xshash, ammo ekstremalroq yondashuvni qo’llaydi. Ushbu yashirish vositasidan o’tgan tasvirlar, aslida, matn ko’rsatmalari uchun natijalarni sabotaj qilib, ular ustida mashq qiladigan generativ AI modellarini «zaharlash» uchun mo’ljallangan. Agar siz itlarning bir nechta rasmlarini yuklasangiz, masalan, Nightshade modellarni Glaze kabi modelni chalkashtirib yuborishdan ko’ra, mashinalar kabi boshqa narsalarni ko’rish uchun aldashi kerak. G’oya shundan iboratki, agar model etarlicha chalkash tasvirlarni olsa, u ularga asoslangan qoidalarni yaratishni boshlaydi, shuning uchun it bilan bog’liq har qanday ko’rsatma g’ildiraklar va old oynalar bilan buzilgan bo’lishi mumkin.

Siz zaharlangan tasvirlaringiz qanday maskarad boʻlishini aniqlay olmaysiz, chunki Nightshade bunday shaxsiylashtirishni sigʻdira olmaydigan algoritmlar atrofida qurilgan. Agar siz uning qanday ishlashini yaxshiroq tushunishni istasangiz, buni tekshiring ma’lumotlar olimi Dorian Drost tomonidan taqdim etilgan parchalanish.

Glaze singari, Nightshade ham himoya qatlamining intensivligi va asl san’at qanchalik batafsil ekanligiga qarab, insonning ko’rish tajribasiga katta ta’sir ko’rsatmasligi kerak bo’lgan filtrga o’xshash plyonkani tasvirga qo’llaydi. (Siz Glaze va Nightshade ikkalasini bir-biriga aralashmasdan tasvirlarga qo’llashingiz mumkin.) Nightshade ham mavjud Windows va macOS tizimlari, ammo ikkinchisi uchun faqat Apple-ning o’z kremniyida ishlaydigan mashinalar qo’llab-quvvatlanadi.

Odatiy intensivlikda Nightshade yaltiroq tasvirlarga oʻxshash natijalar berishi kerak. O’ng tarafdagi zaharlangan natijalar bizning Glaze testlarimiz bilan deyarli bir xil.Rasm: Jess Weatherbed / The Verge va Image: Jess Weatherbed / The Verge

Umumiy jarayonning aksariyati Glaze bilan bir xil: siz mashinani o’rganish kutubxonalarini yuklab olish, ishingizni yuklash va intensivlik va renderlash parametrlarini o’rnatishni kutasiz. Ammo qo’shimcha bir qadam bor. Nightshade rasmlarni tahlil qiladi va «joriy teg» maydonini «it» yoki «qiz» kabi tarkibni aniqlaydigan bir so’zli tavsif bilan to’ldiradi. Zaharlanish effekti ishlashi uchun bu aniq bo’lishi kerak — agar noto’g’ri bo’lsa, uni o’zgartirishingiz mumkin. Keyin, rasmlarni onlayn yuklaganingizda, bitta so’zli teg metadata yoki alternativ matnga kiritilganligiga ishonch hosil qiling.

Ba’zi generativ AI himoyachilari Nightshade unchalik to’sqinlik qilmasligini ta’kidlaydilar. AI tizimlari o’qitiladi Albatta katta hajmdagi ma’lumotlar, shuning uchun har qanday ko’rsatmaga ta’sir qilish uchun sizga juda ko’p zaharlanish kerak bo’ladi. Va kompaniyalar Nightshade-ni aniqlaydigan vaqtinchalik echimlarni ishlab chiqishi mumkin. Ammo bu vaqtinchalik echimlarning aksariyati himoyalarni olib tashlash o’rniga, faqat undan foydalanadigan tasvirlarni filtrlaydi — shuning uchun yakuniy natija shunchaki san’atni mashg’ulot ma’lumotlaridan chiqarib tashlashdir, bu hali ham g’alabadir. Glaze loyiha jamoasi, shuningdek, vaqtinchalik echimlar tomonidan foydalanilayotgan bo’shliqlarni yopish uchun ilovalarni yangilash ustida ishlamoqda.

Mist

Mist ishga tushirgichining skrinshoti.

Tumanni sozlash qiyin bo’lishi mumkin, ammo agar siz Glaze va Nightshade natijalaridan norozi bo’lsangiz, uni sinab ko’rishning yana bir varianti.Rasm: tuman

Mist bu Psyker Group tomonidan ishlab chiqilgan “oldindan ishlov berish vositasi” boʻlib, u Glaze va Nightshade kabi generativ AI ilovalari ijodkorning oʻziga xos uslubi va ishlarini samarali taqlid qilishiga toʻsqinlik qiladi. Mistning yondashuvi ko’proq tasvirlarni moybo’yoqqa qo’yishga o’xshaydi. Agar sun’iy intellekt modeli «tumanlangan tasvirlar» bo’yicha o’qitilgan bo’lsa, ularni taqlid qilishga bo’lgan har qanday urinish vizual buzilishlar bilan to’liq qoplanadi, bu esa uni ko’p maqsadlar uchun yaroqsiz va umuman ko’rishni yoqimsiz qiladi.

AI tomonidan yaratilgan tasvir vizual buzilishlar bilan qoplangan.

Misted tasvirlariga havola qiluvchi AI yaratish vositalari tomonidan ishlab chiqarilgan narsalarga misol.Tasvir: tuman / Sang Delan

Asl tasvirning elementlari hali ham ushbu natijalarning ba’zilarida ko’rish mumkin, masalan, fotografiya yoki san’at uslublaridagi o’xshashliklar, lekin yaratilgan tasvir ustidagi tartibsiz, shovqinli filtr osongina tuzatiladigan narsa emas. Mist kamida 6 Gb VRAMga ega grafik kartani talab qiladi, bu juda ko’p hisoblash resurslari emas, lekin u hali ham 3.6 GB Glaze talab qiladiganidan kattaroqdir. Mist GitHub-da ishlab chiquvchilarga uning atrofida o’z vositalarini yaratishga imkon berish uchun ochiq manba sifatida yaratilgan va uni yaratuvchilari uzoq muddatli qo’llab-quvvatlashni taklif qilish va uning funksiyasini doimiy ravishda yaxshilash majburiyatini oldilar.

Hozirda dasturchi bo’lmaganlar uchun Mistdan foydalanishning ikki yo’li mavjud. Windows Nvidia GPU bilan ishlaydigan kompyuter foydalanuvchilari Mistni bepul yuklab olishlari mumkin ushbu Google Drive paketi. Dasturiy ta’minot o’rnatishni talab qilmaydi va yuklab olingandan so’ng deyarli darhol foydalanish mumkin — garchi sizda kodlash yoki ishlab chiqish tajribasi bo’lmasa, uni sozlash biroz qiyin.

Tumanlangan tasvirlar, shuningdek, natijalar ustidan xira, aylanayotgan filtrni keltirib chiqarishi mumkin, ammo Glaze singari, batafsil san’at yoki fotografiyani aniqlash qiyinroq.Tasvir: tuman / Sang Delan va tasvir: tuman / Sang Delan

Batafsil qo’llanma Muammolarni bartaraf etish uchun Discord hamjamiyat kanali bilan birga butun jarayon davomida sizga yo’l ochadigan mavjud. Birinchidan, o’rnatganingizga ishonch hosil qiling .NET ish stoli ish vaqti. Bu tugagach, siz shunchaki Google Drive ichidagi “ENG” faylini tanlaysiz va undagi ziplangan Mist_V2 jildini yuklab olasiz. Mist-v2 > src > data > da “IMG” nomli yangi jild yarating. Tugallangach, Mistingni rejalashtirgan barcha rasmlarni yangi jildga tashlang. Keyin, asosiy jildga qayting (u “mist-v2_gui_free_version” deb nomlanishi kerak) va Mist GUI yuklagichini ishga tushiring. Mist sizga tasvirlarga qo’llaniladigan himoya kuchini sozlash va qurilmangizning GPU yoki protsessoridan foydalanishni tanlash imkonini beradi, bu esa eski yoki samarasiz uskunada ishlayotganingizda foydali bo’lishi mumkin.

MacOS-dan foydalanayotgan yoki Nvidia GPU-ga ega bo’lmagan har bir kishi uchun Mist-ni quyidagi orqali ham ishga tushirishingiz mumkin. Colab daftar, veb-brauzeringizda ishlaydigan bulutga asoslangan Jupyter Notebook muhiti. Buni qanday qilish bo’yicha batafsil ko’rsatmalar bu erda mavjud, lekin sozlash unga qaraganda ancha murakkab jarayon Windows ekvivalent. Glaze va Nightshade, odatda, kodlash jarayonlari bilan tanish bo’lmagan odamlar uchun harakat qilish osonroq bo’ladi.

Kin.Art

Kin.Art sun’iy intellektni himoya qilish vositasi emas, balki u to’la rassomlar o’z asarlarini joylashtirish va sotish uchun foydalanishlari mumkin bo’lgan portfel platformasi. Bu sun’iy intellekt tomonidan yaratilgan asarlarni taqiqlash bilan cheklanib qolmaydi — garchi bu kabi saytlarga qarshi noroziliklarni hisobga olsak ham, buni qadrlash mumkin. DeviantArt va ArtStation — va AIni qirqish va mashq qilishni faollashtiradi.

Kin.Art ikki xil texnikadan foydalanadi AI kompaniyalariga to’sqinlik qilish. Birinchisi, tasvirni segmentatsiyalash bo’lib, u tasvirlarni ajratish va ularni tanib bo’lmaydigan narsaga aylantirish uchun ishlatiladi. Buni inson ko‘zlari sezib bo‘lmaydi, lekin generativ AI modellarining tasvirni o‘qish imkoniyatini buzadi. Agar kimdir rasmni saqlashga yoki yuklab olishga harakat qilsa, qo’lda skrinshotlarni bloklamasa ham, bu vizual shifrlash ham mavjud bo’ladi. Ikkinchi usul sarlavha va tavsif kabi meta-ma’lumotlarni shifrlashni o’z ichiga oladi, shuning uchun AI modeli o’qiydigan har qanday teglar tarkibni aniq aks ettirmaydi.

Kin.Art-dagi rasm yuklovchining skrinshoti.

Kin.Art AI himoyasi foydalanuvchilardan o‘z ishlarini platformaga yuklashda katakchani belgilashni talab qiladi.Rasm: Kin.Art

Ushbu himoyalar Kin.Art platformasida avtomatik ravishda qo’llaniladi, shuning uchun siz ulardan foyda olish uchun hisob yaratishingiz va o’z ishlaringizni yuklashingiz kerak, va bu deyarli har qanday ijtimoiy media platformasi kabi ishlaydi. Ijodkorga yo’naltirilgan ba’zi bir aniq xususiyatlar mavjud, masalan, so’rovlarni qabul qilish imkoniyatini e’lon qilish uchun komissiya maqomini qo’shish qobiliyati va siz to’g’ridan-to’g’ri foydalanuvchi profilingizda ijtimoiy media sahifalari kabi tashqi platformalarga ulanishingiz mumkin. Tasvirlarni yuklashda himoyalarni yoqish yoki oʻchirish mumkin va hozirda xizmatdan foydalanish bepul. Buning o’rniga Kin.Art mart oyida xizmat orqali amalga oshirilgan komissiyalar ustiga 5 foizlik xizmat haqini qo’yishni boshlaydi.

Musiqa, yozish va boshqa ommaviy axborot vositalari haqida nima deyish mumkin?

Bizning qo’llanmamiz tasvirga asoslangan san’at uchun qanday himoyalanishlar mavjudligini o’z ichiga oladi, chunki bu formatda boshqa vositalarga qaraganda ko’proq vositalar mavjud va rad etish jarayonlari aniqroq bo’ladi (ular mavjud bo’lganda). Ya’ni, yozuv, ovozli aktyorlik va musiqa kabi boshqa sohalardagi ijodkorlar ham o’z ishlarini himoya qilish uchun kurashmoqda. Asl tarkibga sezilarli ta’sir ko’rsatmasdan, AI modellarini bunday turdagi ma’lumotlarga qanday o’rgatishini buzish ancha qiyin, ammo siz hali ham AI o’quv ma’lumotlar to’plamiga kirib qolish xavfini kamaytirish uchun ko’rishingiz mumkin bo’lgan ehtiyot choralari mavjud.

San’atda bo’lgani kabi, har doim o’z asarlaringizni yuklayotgan hosting platformasining foydalanuvchi shartlarini tekshiring. Xizmatlar odatda platforma maʼlumotlarini uchinchi shaxslarga sunʼiy intellektni oʻrgatish uchun topshirayotgan boʻlsa yoki undan oʻz modellarini ishlab chiqishda foydalanayotgan boʻlsa, oshkor qiladi – agar aniq rad etish jarayoni boʻlmasa, siz roʻyxatdan oʻtish orqali bilmagan holda rozilik bergan boʻlishingiz mumkin. Buning o’rniga, kabi platformalarni qidiring o’rta, ular AI modellarini o’qitish uchun saytda joylashtirilgan kontentdan foydalanishga urinishlarni bloklash majburiyatini olgan. Agar siz o’zingizning saytingizda ishlayotgan bo’lsangiz, sahifalar qirilib ketmasligi uchun GPTBotni bloklash kabi narsalarni ham qilishingiz mumkin.

Ba’zi huquqlarni tarqatuvchilar shunga o’xshash majburiyatlarni oldilar, masalan Mualliflar, bastakorlar va musiqa noshirlari jamiyati (SACEM) — o’tgan yili o’z a’zolari nomidan voz kechish huquqidan foydalanayotganini e’lon qilgan frantsuz uyushmasi. Yozuvchilar uchun yana bir maslahat, Mualliflar Gildiyasining xushmuomalaligi, nashr etilgan ishlaringizga AIni o’rgatishda foydalanishga rozi emasligingizni aniq ko’rsatadigan qisqa ogohlantirish xabarini joylashtirishdir. Bu gildiya tomonidan taqdim etilgan misol:

“AINI TA’LIM YO‘Q: Muallifning [va noshirning] mualliflik huquqi bo‘yicha eksklyuziv huquqlarini hech qanday tarzda cheklamagan holda, ushbu nashrdan matn yaratish uchun generativ sun’iy intellekt (AI) texnologiyalarini “o‘rgatish” uchun har qanday foydalanish qat’iyan man etiladi. Muallif ushbu asardan sun’iy intellektni generativ o’qitish va mashina o’rganish tili modellarini ishlab chiqish uchun litsenziyadan foydalanish huquqini o’zida saqlab qoladi.

Ushbu ogohlantirishlar asardan foydalanish erkin emasligini aniq ko’rsatishga xizmat qiladi, bu kelajakda sizning egalik huquqlaringizni buzgan kompaniyalarga qarshi ko’tariladigan har qanday da’volarda foydali bo’lishi mumkin. Agar veb-ma’lumotlarni qirib tashlaydigan botlar ham bunday ogohlantirishlar bilan natijalarni filtrlash uchun etarlicha intuitiv bo’lsa, bu ham bo’lishi mumkin mumkin proaktiv himoyaning yana bir qatlamini ta’minlaydi, ammo bunday ma’lumotlarni qanchalar haqiqatda kuzatayotganini ko’rsatadigan dalillar kam. Aks holda, ijrochilar va yozuvchilar, agar ular o’z asarlari buzilgan deb hisoblasa, AI kompaniyalariga mualliflik huquqi bo’yicha olib tashlash bildirishnomalarini yuborishlari kerak bo’ladi.

Texnologiyalar
O’z san’atingizni AI generatorlaridan qanday saqlash kerak