تعداد نشریات | 43 |
تعداد شمارهها | 1,652 |
تعداد مقالات | 13,423 |
تعداد مشاهده مقاله | 30,844,858 |
تعداد دریافت فایل اصل مقاله | 12,141,676 |
طرح و بررسی برخی از مسائلِ اخلاقیِ هوش مصنوعی در هنر | ||
متافیزیک | ||
مقاله 7، دوره 16، شماره 37، فروردین 1403، صفحه 93-110 اصل مقاله (813.92 K) | ||
نوع مقاله: مقاله پژوهشی | ||
شناسه دیجیتال (DOI): 10.22108/mph.2024.138105.1488 | ||
نویسنده | ||
محمد علی عاشوری کیسمی* | ||
گروه فلسفه هنر، دانشگاه علامه طباطبائی، تهران، ایران | ||
چکیده | ||
هدف از پژوهش حاضر، بررسی مسائل اخلاق هوش مصنوعی در حوزۀ هنر است. بهاینمنظور، با تکیه بر فلسفه و اخلاق هوش مصنوعی، موضوعات اخلاقی که میتواند در حوزۀ هنر تأثیرگذار باشد، بررسی شده است. باتوجهبه رشد و توسعۀ استفاده از هوش مصنوعی و ورود آن به حوزۀ هنر، نیاز است تا مباحث اخلاقی دقیقتر مورد توجه پژوهشگران هنر و فلسفه قرار گیرد. برای دستیابی به هدف پژوهش، با استفاده از روش تحلیلیـتوصیفی، مفاهیمی همچون هوش مصنوعی، برخی تکنیکهای آن و موضوعات اخلاقی هوش مصنوعی در هنر تبیین و بررسی شده است. نتایج پژوهش نشان میدهد موضوعات اخلاقی همچون حریم خصوصی و نظارت، دستکاری در رفتار، تاری و شفافیت، سوگیری در تصمیمات سیستم، و اتوماسیون و اشتغال حوزۀ هنر قابلبررسی است. این موضوعات اخلاقی، گاهی درتقابل و گاهی در ارتباط مستقیم و همسو با یکدیگر قرار دارند. بررسیها نشان میدهد پاسخ به پرسشهای اخلاق هوش مصنوعی در حوزۀ هنر، نیازمند پاسخ به پرسشهای اخلاقی بهصورت عام در هوش مصنوعی است. | ||
کلیدواژهها | ||
هوش مصنوعی؛ اخلاق؛ هنر؛ یادگیری ماشین؛ اخلاق هوش مصنوعی | ||
اصل مقاله | ||
1-مقدمه هوش مصنوعی[1] از زمان کنفرانس دارپا[2] وارد مرحلۀ عملی شد؛ اما در سالهای اخیر بیشتر مورد توجه پژوهشگران قرار گرفته است. یکی از دلایل این توجه، ورود هوش مصنوعی به جنبههای مختلف زندگی انسان است. هوش مصنوعی ضعیف[i]، به بخشی از زندگی روزمرۀ انسان امروزی بدل شده است. در چند سال گذشته، استفاده از هوش مصنوعی در حوزۀ هنر نیز افزایش چشمگیری داشته است. اگرچه در گذشته تصور برخی بر این بود که هوش مصنوعی محدود به استفادۀ هنرمندان از نرمافزارها یا برخی از ابزارهاست، فروش اثری که هوش مصنوعی تولید کرده بود، در حراج کریستی[3]، جامعۀ هنری را به بررسی دقیقتر واداشت[ii] (Cohn, 2018). این اتفاق، پرسشهایی مانند این را پدید آورد که: آیا هوش مصنوعی میتواند اثر هنری تولید کند؟ آیا میتوان هوش مصنوعی را هنرمند خطاب کرد؟ در کنار اینگونه پرسشهای معرفتشناختی و هستیشناختی، با پرسشهایِ اخلاقیِ هوشِ مصنوعی هم روبهرو هستیم که توجه به آنها نیز از اهمیت فراوانی برخوردار است. ازنظر تاریخی، هارولد کوهن[4] نخستین هنرمندی بود که از الگوریتمها[5] برای تولید اثر هنری استفاده کرد (Audry & Ippolito, 2019)، این موضوع در زمانی کوتاه تغییرات شگرفی را پشت سر گذاشت و امروزه هنرمندان زیادی از هوش مصنوعی استفاده میکنند. گاهی با استفاده از نوآوریهای تکنولوژیکی یا ابزارهای جدید در مراحل ابتدایی مخالفت میشود؛ اما اگر به روند کلی در تاریخ هنر نگاهی بیندازیم، مشاهده میکنیم بسیاری از نوآوریها و ابزارها، فرصتهای جدیدی برای هنرمندان پدید آوردهاند. استفادۀ یان وان آیک[6] از رنگ روغن، استفاده از سینثسایزر[7] در موسیقی، استفاده از دوربینهای دیجیتال در عکاسی و بسیاری نمونههای دیگر، اگرچه در دورهای نوآوریهایی محسوب میشدند که موردتأیید بخشی از جامعۀ هنری نبودند، بهسرعت جای خود را میان هنرمندان باز کردند (Hertzmann, 2018). معلوم نیست در آینده نقش هوش مصنوعی در حوزۀ هنر چه میزان خواهد بود؛ اما به نظر نمیرسد تأثیر آن قابلچشمپوشی باشد. پژوهشهای متعددی به استفاده از هوش مصنوعی در حوزۀ هنر پرداختهاند که ازجملۀ آنها میتوان به پژوهش هونگ و کوران (۲۰۱۹)، مازون و الگامال (۲۰۱۹)، نورتون و همکاران (۲۰۱۳) و الگامال (۲۰۱۹) اشاره کرد. در حوزۀ اخلاق و فلسفۀ هوش مصنوعی، پژوهشهای بیشتری به چشم میخورد که ازجملۀ آنها میتوان به پژوهش دیگنام (۲۰۱۸)، اتزیونی و اتزیونی (۲۰۱۷) و نسیم و همکاران (۲۰۲۲) اشاره کرد. در این میان، معدود پژوهشهایی به بررسیِ اخلاقِ هوشِ مصنوعی و هنر همت گماردهاند که عمدتاً نیز به موضوع حق مالکیت معنوی پرداختهاند. ازایندست پژوهشها میتوان به پژوهش لی (۲۰۲۳) و میرنیکی و انجی (۲۰۲۱) اشاره کرد. باوجود گسترۀ وسیع پژوهش دربارۀ هوش مصنوعی، با خلأ پژوهشهایی روبهرو هستیم که به بررسی و شناخت موضوعات و ابعاد گوناگون اخلاق هوش مصنوعی در حوزۀ هنر بپردازند. هدف از پژوهش حاضر بررسی و ارائۀ پیشدرآمدی از مباحث و چالشهای اخلاقی هوش مصنوعی در حوزۀ هنر است. اهمیت این پژوهش در بررسی مباحث اخلاق هوش مصنوعی در هنر است که کمتر مورد توجه پژوهشگران قرار گرفته است. البته در این مسیر دشواریها و محدودیتهایی نیز وجود داشت. برای مثال، یک دشواری دراینزمینه، نیاز به دانش میانرشتهای است. برای چنین پژوهشهایی، آشنایی با اصول و ساختار هوش مصنوعی، فلسفه و اخلاق هوش مصنوعی و هنر معاصر اهمیت دارد. برای دستیابی به هدف یادشده، پژوهش حاضر به سه بخش تقسیمبندی شده است. پیش از هرچیز نیاز است شناختی حداقلی از مفاهیم حوزۀ هوش مصنوعی به دست آید؛ بههمینعلت، در بخش اول مفاهیم پایهای همچون هوش مصنوعی، یادگیری ماشین[8] و شبکههای مولد رقابتی[9] و شبکههای خلاق رقابتی[10] معرفی میشوند[iii]. پس از آشنایی با اصطلاحات و تکنیکهای هوش مصنوعی، در بخش دوم به بررسی موضوعات اخلاقی هوش مصنوعی پرداخته میشود. بهاینمنظور، چندین موضوع اخلاق هوش مصنوعی همراه با ذکر مثال شایان توجه قرار میگیرد. پس از آنکه مباحث و موضوعات اخلاقی هوش مصنوعی در هنر بررسی شد، در بخش سوم به بحث و بررسی ارتباطات و آثار مباحث مطرحشده در بخش دوم پرداخته میشود. ۲. هوش مصنوعی ابتدا باید بدانیم مقصود از هوش مصنوعی دقیقاً چیست. پژوهشگران متعدد، تعاریف مختلفی از هوش مصنوعی ارائه کردهاند. برخی هوش مصنوعی را شاخهای از علوم کامپیوتر میدانند که بر خودکاریِ رفتارِ هوشمند متمرکز است (Luger, 2011: 1)؛ برخی آن را مطالعۀ ماشینهایی میدانند که قادر به احساسکردن، تصمیمگیری و عمل مانند انسان است (Mondal, 2020) و برخی دیگر نیز آن را حوزهای برای ساخت سیستمهایی میدانند که مانند انسان فکر/عمل کند (Russel & Norvig, 2020: 1-2). اینگونه تعاریف، خود آغازگر مباحث معرفتشناختی است که از موضوع پژوهش حاضر خارج است[iv]. در پژوهش حاضر، با استفاده از تعریف دایرةالمعارف فلسفی استنفورد، هوش مصنوعیْ نوعی سیستمِ محاسباتیِ مصنوعی در نظر گرفته میشود که برای دستیابی به هدف یا اهدافی، رفتارهای «هوشمند» و نه الزاماً بهمانند هوشمندی انسان انجام میدهد (Muller, 2021). ۱-۲. یادگیری ماشین در هوش مصنوعی از تکنیکهای مختلفی استفاده میشود که یکی از مهمترین آنها یادگیری ماشین است؛ اما بهواقع، یادگیری ماشین چیست؟ برای پاسخ به این پرسش، باید به یادگیری انسان رجوع کنیم. یکی از روشهایی که انسان براساس آن میآموزد و اتفاقات را پیشبینی میکند، یادگیری برپایۀ تجربه است. اگر بخواهیم که سیستم کامپیوتری از همین روش قادر به یادگیری و پیشبینی باشد، باید از دادهها[11] استفاده کنیم. بهبیانی دیگر، سیستم کامپیوتری (ماشین) با دریافت دادهها تجربه میکند. وظیفۀ یادگیری ماشین، توسعۀ الگوریتمهای یادگیری است. این الگوریتمها باید از روی دادهها مدل بسازد و بهوسیلۀ آن مدل پیشبینی کند. در اینجا باید توجه داشت که مفهوم یادگیری ماشین با انسان متفاوت است و نباید این دو را یکسان دانست. در اینگونه تعاریف مقصود این است که روندی مشابه با تجربۀ انسان در ماشین صورت میگیرد که برپایۀ آن ماشین قادر است در موارد مشخصی رفتار/عملی مشابه انسان را اتخاذ کند (Bringsjord et al., 2017). پُر واضح است که در اینجا مشابهت بهمعنای اینهمانی و یکسانبودن یادگیری نیست و تأکید بر شباهت (الگوبرداری) روند و نتیجۀ یادگیری است. برای روشنشدن تعریف فوق، ذکر مثالی میتواند مفید واقع شود. فرض کنید میخواهیم ماشین بیاموزد که پرتقال چیست و در مواجهه با دادههای یک میوه بتواند تشخیص دهد که پرتقال است یا خیر. برای این منظور، ابتدا مجموعهای از دادههای میوهها جمعآوری میشود. برای مثال، m تعداد میوه تهیه میکنیم تا از دادههای آنها استفاده کنیم. پس ما مجموعهای از m تعداد دادۀ میوه (X) داریم و نام مجموعۀ دادهها[12] را D میگذاریم. مجموعۀ کل دادههای میوهها بهصورت زیر خواهد بود: D={X1, X2, X3, … Xm} میوهها ویژگیهای مختلفی دارند و ماشین ما باید از روی ویژگیهای گوناگون بتواند پرتقال را از سایر میوهها تشخیص دهد. برای مثال شکل، رنگ، بافت و سایر ویژگیهای میوهها با یکدیگر متفاوت هستند و از مجموع این ویژگیهاست که میتوان پرتقال را از سایر میوهها تشخیص داد. اگر میوهها دارای d تعداد ویژگی باشند، هر میوه (Xi) در مجموعۀ میوهها (D)، مجموعهای از ویژگیهایی بهصورت زیر دارد: Xi={Xi1, Xi2, Xi3, … Xid} پس مجموعۀ کل دادههای تمامی میوههای ما بهصورت زیر درمیآید: D={(X11, X12, …, X1d), (X21, X22, …, X2d), …, (Xi1, Xi2, …, Xid)} برای اینکه ماشین از روی دادهها یاد بگیرد، میتوان روشهای مختلفی به کار برد؛ برای مثال، میتواند یک برچسب[13] به دادههای ویژگی میوه اضافه کرد تا ماشین از روی آن بداند ویژگیها مربوط به پرتقال است یا خیر؛ چیزی مشابه مجموعۀ زیر: D= {((X11, X12, …, X1d), Yes), ((X21, X22, …, X2d), No), …, ((Xi1, Xi2, …, Xid), Yes)}[v] دادههای موجود برای پرتقال دربرابر دادههای سایر میوهها دارای الگوهای مشخصی است. کار ماشین این است که ویژگیهای پرتقال را شناسایی کند و بداند چه ویژگی مربوط به پرتقال است و چه ویژگیهایی مربوط به آن نیست[vi]؛ بنابراین، ماشین در جریان یادگیری به الگوها و مدلهایی دست پیدا میکند که پیشتر به آن نداده بودیم؛ بلکه ماشین از روی دادهها، مدل مربوط به پرتقال را ساخته است یا بهعبارتی یاد گرفته است (Zhou, 2021: 2-4). پس زمانی که ماشین با دادههای دیگری روبهرو میشود، میتواند آنها را با مدل خود بررسی کند و ببیند آیا این دادهها میتوانند دادههای مربوط به یک پرتقال باشند یا خیر[vii]. ۱-۱-۲. شبکههای مولد رقابتی در سال ۲۰۱۴ میلادی، چهارچوب[14] شبکههای مولد رقابتی بهعنوان یکی از تکنیکهای یادگیری ماشین معرفی شد. در این تکنیک، دو مدل (شبکه) یادگیری مولد[15] و تشخیصدهنده[viii] وجود دارند (Goodfellow et al, 2020). این دو شبکه برای رسیدن به تعادل نش[ix] با الهام از نظریۀ بازی[x] با یکدیگر رقابت میکنند. برای درک دقیقتر این تکنیک ذکر یک مثال مفید خواهد بود. فرض کنید میخواهیم با ماشین تصاویری جدید از صورت یک انسان تولید کنیم. مطابق با آنچه در بخش پیش گفته شد، ماشین باید بیاموزد که تصویر صورت انسان چه ویژگیهایی دارد که بتواند از روی آن مدل بسازد و سپس تصویری مطابق با آن تولید کند. در چنین شرایطی تولید یک تصویر جدید با همان ویژگیهای دادههای موجود (تصاویر انسان) لازم خواهد بود؛ اما برمبنای آنچه در مبحث یادگیری ماشین مطرح شد، این کار را نمیتوانیم با همان تکنیک یادگیری انجام دهیم. بهعبارتی دیگر، باید بررسی شود که تصویری خروجی ماشین از صورت انسان ۱. ویژگیهای تصاویر واقعی از صورت انسان را دارد و ۲. نمیتوان تصاویر خروجی ماشین را از تصاویر واقعی صورت انسان تشخیص داد. برای انجام این کار و حل دو مشکل یادشده، شبکۀ مولد تلاش میکند تا یک مدل از تصویر صورت انسان تولید کند که شبکۀ تشخیصدهنده را فریب دهد و این شبکه نتواند تشخیص دهد که تصویر را ماشین تهیه کرده است. درمقابل، شبکۀ تشخیصدهنده تلاش میکند تصاویر واقعی و تصاویری را که شبکۀ مولد ایجاد کرده، از هم تمییز دهد. در مراحل ابتدایی، شبکۀ تشخیصدهنده میتواند بهسادگی این تصاویر را تمییز دهد؛ اما با هر تشخیص، شبکۀ مولد بازخوردی از شبکۀ تشخیصدهنده دریافت میکند. باتوجهبه این بازخورد، شبکۀ مولد تلاش میکند خود را تقویت کند و تصاویری تولید کند که غیرواقعیبودن آنها قابلتشخیص نباشد (Kammoun et al,. 2022). این روند آنقدر انجام میشود تا زمانی که تشخیصدهنده نتواند میان تصویر شبکۀ مولد و تصویر واقعی تشخیص دهد و آنگاه تصویری جدید (غیرواقعی) از انسان تولید کرده است. این روند چیزی شبیه به دیاگرام زیر خواهد بود: ۱-۱-۱-۲. شبکههای خلاق رقابتی شبکههای خلاق رقابتی، یکی از اشکال شبکههای مولد رقابتی هستند. هدف از این تکنیک، رسیدن به خروجیهایی از ماشین است که خلاقانه باشند. باتوجهبه توضیحات قسمت پیشین، میدانیم که شبکۀ مولد تلاش میکند تصویری تولید کند که شبکۀ تشخیصدهنده نتواند غیرواقعیبودن آن را تشخیص دهد؛ اما زمانی که از اثر هنری سخن میگوییم، معمولاً سخن از خلاقیت به میان میآید؛ پس باید تصویری تولید شود که غیرواقعیبودن آن قابلتشخیص نباشد و همزمان خلاقانه هم باشد. در شبکههای مولد رقابتی میتوانستیم تصاویری شبیهسازیشده تولید کنیم؛ اما تصاویر نمیتوانستند خلاقانه باشند. همین موضوع دستمایۀ طراحی شبکههای رقابتی خلاق شد است. اگر به تاریخ هنر رجوع کنیم، میدانیم که در گذشته، هنرمندان آثار خود را عموماً در سبکهای گوناگون خلق میکردند؛ اما امروزه آنها چندان درگیر سبکهای هنری نیستند. اگر بهدنبال تولید تصویری بودیم که مثلاً بتوانیم آن را یک اثر امپرسیونیستی بخوانیم، احتمالاً با شبکههای مولد رقابتی میتوانستیم چنین کاری کنیم. کافی بود تا در زمان آموزش به تصاویر شبکۀ تشخیصدهنده برچسب سبک را اضافه کنیم (Elgammal et al., 2017, 4-5)؛ البته کماکان این تصاویر نمیتوانستند خلاقانه باشند. در هنر معاصر، هنرمندان کمتر بر سبکها تمرکز دارند و بهعبارتی، سبک آثار آنها در مقایسه با هنرمندان دوران گذشته مبهم است. اگر بخواهیم تصویری تولید کنیم که شبیه به آثار هنری معاصر باشد، از شبکههای خلاق رقابتی استفاده میشود. در یکی از شناختهشدهترین پیشنهادها برای شبکههای خلاق رقابتی، شبکۀ مولد باید دو بازخورد از شبکۀ تشخیصدهنده بگیرد: اول اینکه آیا تصویر را میتوان در دستۀ تصاویری قرار داد که ویژگیهای اثری هنری داشته باشند یا خیر، و دوم، آیا تصویر تولیدشده، سبکی مبهم (نامشخص) دارد یا خیر[xi]. درعمل، مولد باید بتواند به سه هدف برسد: ۱. تصاویری جدید تولید کند؛ ۲. تصاویر نباید بیش از اندازه جدید به نظر برسد و دور از انتظار مخاطب انسانی باشد[xii]؛ و ۳. تصویر سبکی مبهم داشته باشد (Ibid: 5-6). این روند چیزی مشابه دیاگرام زیر خواهد بود: با استفاده از این روش، میتوان تصاویری مشابه با آثار بصری هنرمندان تولید کرد. البته ذکر مثال دربارۀ تصاویر را نباید بهاینمعنا در نظر گرفت که از تکنیکهای یادشده فقط در هنرهای بصری استفاده میشود. برای نمونه، در حوزۀ موسیقی نیز نمونههایی ازایندست تکنیکها وجود دارد که از روندی مشابهِ روند یادشده استفاده میکنند (Briot & Pachet, 2020). اکنون که با اصلاحات و برخی از روشهای هوش مصنوعی آشنایی حداقلی به دست آمد، نیاز است تا بدانیم موضوعات اخلاقی آن در هنر چه موضوعاتی هستند و چگونه ممکن است بروز پیدا کنند. ۳. اخلاق هوش مصنوعی و هنر در پژوهشهای فلسفه و اخلاق هوش مصنوعی، عموماً مباحث و موضوعات مشخصی در بیشتر آثار مطرح میشود. موضوعاتی همچون حریم خصوصی و نظارت[16]، دستکاری در رفتار[17]، تاری[18] و شفافیت[19]، سوگیری در تصمیمات سیستم[20]، اتوماسیون و اشتغال[21]، سیستمهای خودمختار[22] و تکینگی[23] ازجمله پرتکرارترین موضوعات هستند[xiii] (Muller, 2021). برخی از همین موضوعات در حوزۀ هنر نیز مورد توجه قرار خواهد گرفت. بهمنظور تبیین بهتر، تلاش شده است تا هر مبحث با ذکر مثالهایی در حوزۀ هنر، روشنتر شود. ۱-۳. حریم خصوصی و نظارت بیشتر مباحث مربوط به حریم خصوصی و نظارت در هوش مصنوعی، مربوط به دسترسی به دادههای خصوصی و دادههایی است که میتوانند هویت فردی را با پردازش آنها فاش کنند. با گسترش استفاده از تکنولوژیهای حسگر و ذخیرۀ دادهها بهصورت دیجیتال، امکان جمعآوری هوشمند و تجزیهوتحلیل دادهها افزایش چشمگیری پیدا کرده است. امروزه، دادهها معمولاً بهعنوان کارمزد میان شرکتها تبادل میشوند. بهعبارتی دیگر، شرکتها در جریان استفادۀ کاربران از هوش مصنوعی اقدام به جمعآوری دادههای گوناگونی میکنند. این دادهها بهعلت اینکه اطلاعات فراوانی را شامل میشوند، ارزشمند محسوب میشوند و شرکتهای مختلف گاهی این دادهها را با یکدیگر تبادل میکنند. اکنون دانستن اینکه چه کسی دادهها را جمعآوری میکند و به آنها دسترسی دارد، بسیار دشوار است (Muller, 2021). پژوهشهای مختلف نشان میدهد نگرانی از دسترسی به دادهها، ذخیره و تجزیهوتحلیل آنها موضوعاتی بسیار جدی هستند (Kozyreva et al., 2020) که نمیتوان بهسادگی از آنها گذر کرد. مثال: یکی از نگرانیهای هنرمندان هنرهای بصری این است که هوش مصنوعی از سبک هنری آنها بدون اطلاع و اجازه تقلید کند. ممکن است تصور شود تقلید از سبک خصوصی هنرمندان بدون استفاده از هوش مصنوعی نیز امکانپذیر است و اتفاقی جدید رخ نمیدهد. باید توجه داشت هر هنرمند (X) برای خلق اثر هنری علاوه بر ذوق خود، وقت و هزینه صرف میکند؛ درحالیکه هوش مصنوعی میتواند تقلید از آثار X را در کمتر از چند ثانیه انجام دهد. X برای رسیدن به سبک مخصوص به خود گاهی ممکن است سالها زمان بگذارد. حتی اگر هنرمندی دیگر (Y) بخواهد از سبک X تقلید کند، این موضوع نیازمند تلاش و صرف زمان بوده و ممکن است بهدشواری محقق شود. حال آنکه هوش مصنوعی، قادر است بسیار بیش از Y در آثار X الگو بیابد و این امکان را پدید میآورد که تولید اثری در سبک شخصی X در زمان کوتاهی امکانپذیر باشد. برای روشنشدن این موضوع فرض کنید که X تصاویر آثار نقاشی خود را برای آموزش در اختیار طراحان هوش مصنوعی قرار میدهد تا یک ماشین طراحی کنند که نقاشیکردن را بیاموزد. آنچه X میداند، این است که اطلاعاتْ فقط بههدف آموزش استفاده میشود و کاربرد دیگری نخواهد داشت و اطلاعات او نیز فاش نمیشود و با این دانستهها X اعلام میکند با رضایت آگاهانه[24] نقاشیهای خود را در اختیار طراحان قرار داده است. خطر آن است که براثر استفادۀ بد طراحان آثار X را برای تولید آثاری انبوه در سبک او و نهتنها برای یادگیری استفاده کنند. این موضوع میتواند ارزش مالی خرید آثار X را بهعلت تولید انبوه بهشدت کاهش دهد. همین امر موجب شده است تا پژوهشگران و متخصصان هوش مصنوعی بهدنبال یافتن راهکارهایی فنی باشند که بتوانند از این موضوع جلوگیری کنند. برای نمونه، میتوان به برخی تکنیکهای هوش مصنوعی مانند «Glaze» اشاره کرد که با تغییرات الگوریتمی در تصاویر آثار هنرمندان، آنها را برای شبکههای مولد رقابتی غیرقابلبررسی میکنند و امکان تقلید آثار را کاهش میدهند. بااینحال، باید توجه داشت که تکنیکهای محافظتکننده از حریم خصوصی هنرمندان باید همواره برای تکنولوژیهای جدید هوش مصنوعی بهروزرسانی شود و دستآخر نیز ممکن است در تمامی موارد نتوانند عملکردی موفقیتآمیز از خود نشان دهند (Shan et al,. 2023). زمانی که از حریم خصوصی صحبت میشود، اطلاعاتی که X در اختیار طراحان قرار داده است، ممکن است نتایج دیگری هم برای او داشته باشد. با استفاده از تحلیل دادهها[25] و دسترسی به کلاندادهها[26] میتوان به اطلاعات فراوانی دست یافت که پیشتر از وجودشان هیچ اطلاعی نداشتهایم و این موضوع با عنوان تاری عمیق[27] شناخته میشود. همانطور که ذکر شد، بسیاری از دادهها در میان شرکتهای مختلف تبادل میشوند. حال برای روشنشدن چالش، دوباره به مثال باز میگردیم. فرض کنید در نقاشیهای X که برای آموزش در اختیار طراحان گذاشته شده، مشاهده میکنیم که در میان رنگهای مختلف، او از رنگ قرمز در آثار خود استفاده میکند. این دادهها بهخودیخود شاید چیز زیادی را نشان ندهد؛ اما زمانی که دادهها میان طراحان به اشتراک گذاشته میشود، موضوع کمی متفاوت است. مثلاً فرض کنید در جایی دیگر X اقدام به خرید لباس کرده و برخی از لباسهای او قرمز است. در اینجا دادههای خرید او در جایی دیگر ثبت شده است؛ اما این دادهها هم اطلاعات زیادی را فاش نمیکنند. در تاریخچۀ اطلاعات زندگی X و در تصاویری که در شبکههای اجتماعی منتشر کرده، مشخص میشود یکی از عزیزان او در ماشینی که بهرنگِ قرمز بوده است، تصادف کرده و جان خود را از دست داده است. ممکن است X از مفهومی که رنگ قرمز برای او دارد، بهصورت خودآگاهانه مطلع نباشد؛ اما با وجود کلاندادهها و تحلیل دادهها مثلاً میتوان به این موضوع دست یافت که رنگ قرمز در ناخودآگاه X یادآور خاطرات غمانگیز است. برای مثال، در آثار هنری X که رنگ قرمز به کار رفته، موضوعْ شامل سویههای غم است و لباسهای قرمز را زمانهایی میپوشد که بیشتر غمگین است. این اطلاعات را نه X دربارۀ خود دارد و نه هیچکدام از ابزارهای هوش مصنوعی که اطلاعات او را جمعآوری کردهاند، بهتنهایی از وجودشان مطلع بودند؛ بلکه این اطلاعات از روی کلاندادهها و با تحلیل دادهها قابلدستیابی است؛ بنابراین، اینجا فقط دسترسی به دادهها مطرح نیست؛ بلکه اطلاعات فراوانی که میتوان دربارۀ سایر دادهها به دست آورد، اهمیت فوقالعادهای دارد[xiv]. ۲-۳. دستکاری در رفتار مباحث دسترسی به دادهها و حریم خصوصی، گاهی به دستکاری در رفتار نیز اشاره دارند. باوجود دادههای کافی از افراد، گاهی فقط یک تلنگر کافی است تا آنها تحتتأثیر قرار گیرند. سوگیریهای رفتاری، فریب و ایجاد اعتیاد از ابزارهای تبلیغکنندگان و بازاریابهای برخط[28] است. حتی شاید بتوان گفت دستکاری در رفتار یکی از مدلهای عمومی کسبوکار برخط است. بهصورت خلاصه، دستکاری در رفتار زمانی رخ میدهد که با استفاده از دسترسی به اطلاعات، در رفتار و تصمیمات فرد تغییر ایجاد شود (Muller, 2021). البته این دستکاری ممکن است ناآگاهانه رخ دهد. مثال: یک نمونۀ شناختهشده از این مبحث را میتوان در «ماشین متقاعدسازی[29]» مشاهده کرد که آن را دو هنرمند با نامهای لورن لیمککارتی[30] و دیوید لئونارد[31] طراحی کردند. ماشین متقاعدسازی درحقیقت یک هوش مصنوعی است که برای دستکاری احساسات و اعمال بازدیدکنندگان یک نمایشگاه هنری با استفاده از تشخیص چهره، حسگرهای زیستی[32] و دستیارهای صوتی طراحی شده است. ماشین متقاعدسازی از ابتدای ورود افراد به نمایشگاه یک پروندۀ شخصی[33] برای هر بازدیدکننده براساس حالات چهره، ضربان قلب و پاسخ به پرسشها ایجاد میکند. سپس، ماشین متقاعدسازی تلاش میکند باتوجهبه پروندۀ شخصی که از افراد دارد، با پخش موسیقی، تغییر نور و ارائۀ پیشنهاد ازطریق دستیار صوتی، بر روحیه و رفتار آنها تأثیر بگذارد (Stocker et al,. 2021). فرض کنید در یک نمایشگاه آثار هنری از چنین ماشینی استفاده میشود. ماشین قادر است براساس دادههایی که از بازدیدکنندگان نمایشگاه دریافت میکند، رفتار آنها را دستکاری کند. برای مثال، فردی که چنین ماشینی را کنترل میکند (X)، میتواند برخورد مخاطبان نمایشگاه را با دو اثر مختلف که یکی را A مینامیم و دیگری را B کنترل کند. مثلاً X میتواند با تأثیرگذاری بر منتقد (Y)، اثر A را مورد پسند و ستایش او قرار دهد و یا Y را دربرابر اثر B خشمگین کند و از نقد منصفانۀ B باز دارد. در چنین شرایطی Y تصور میکند احساسات او دربرابر آثار ناشی از دلایل بیرونی نبوده و دریافتی است که از A و B به دست آورده است.
۳-۳. تاری و شفافیت همانطور که ذکر شد، تکنیکهای یادگیری ماشین از روی مجموعۀ دادهها، الگوهای گوناگونی استخراج میکنند. باید توجه کرد که یادگیری ماشین عموماً به سه شیوه انجام میشود که با عنوان پارادایمهای[34] یادگیری از آنها یاد میشود: یادگیری نظارتی[xv]، یادگیری نیمهنظارتی[xvi]، یادگیری غیرنظارتی[xvii]. باتوجهبه اینکه یادگیری، با استفاده از استخراج الگوها از روی دادههای ورودی صورت میگیرد، با ورود دادههای مختلف و جدید الگوها تغییر و توسعه پیدا میکنند. این موضوع باعث میشود تا فهمیدن این موضوع که ماشین چگونه به یک خروجی دست یافته است، برای افرادی که ماشین را طراحی کردهاند نیز دشوار و یا گاهی غیرممکن باشد (Muller, 2021). زمانی که علت رسیدن ماشین به یک خروجی را اصلاً ندانیم، اصطلاحاً گفته میشود سیستم تار[35] است و زمانی که علت را بهطور کامل بدانیم، سیستم شفاف[36] خواهد بود[xviii]. باید توجه داشت که در بیشتر موارد طیفی از تاری و شفافیت وجود دارد. بهعبارتی دیگر، در بیشتر موارد علت رسیدن ماشین به یک خروجی تا حدودی برای ما تار یا شفاف است. مثال: اینکه ماشین در تولید یک اثر هنری، چگونه از دادهها آموخته است، بسیار بحثبرانگیز خواهد بود. آیا باید حقوق مالکیت معنوی اثر تولیدشده توسط ماشین را متعلق به هنرمندانی بدانیم که یادگیری ماشین براساس دادههای آموزشی آثار آنها صورت گرفته است یا خیر؟ (McCormack et al., 2019; Ghosh & Fossas, 2022). ازسویی، میتوان گفت که ماشین مانند انسان فقط از روی تصاویر دیگر یاد گرفته و درنهایت، خودْ اثری جدید را پدید آورده است. زمانی که هنرمندی تصاویر دیگر هنرمندان را فقط برای یادگیری مشاهده میکند، مالکیت معنوی آثارشان متعلق به او نخواهد بود؛ اما ازسوی دیگر، آیا ماشین بهواقع مانند انسان آموخته است یا دریافت دادهها همراه با کپیبرداری از الگوهای آثار بوده است؟ برای پاسخ به اینقبیل پرسشها، شفافیت یادگیری ماشین امری مهم تلقی میشود. ۴-۳. سوگیری در تصمیمات سیستم خروجی یادگیری ماشین ممکن است بسیار کماهمیت یا بسیار مهم تلقی شود. در میان اشکال سوگیری، سه شکل را میتوان در هوش مصنوعی تأثیرگذار دانست: سوگیری آموختهشده[37]، سوگیری شناختی[38] و سوگیری آماری[39]. معمولاً سوگیری زمانی رخ میدهد که قضاوتی ناعادلانه صورت میگیرد؛ چراکه قضاوت تحتتأثیر ویژگیهای و موضوعاتی قرار گرفته که ارتباطی با موضوع تصمیمگیری ندارند. برای مثال، میتوان به سوگیریهای تبعیضآمیز دربارۀ اعضای گروههای مختلف اجتماعی اشاره کرد. این شکل از سوگیری، سوگیری آموختهشده نامیده میشود. شایان توجه است که در بسیاری موارد، فرد از این سوگیری خود آگاه نیست. اگر این شکل از سوگیری در برنامهنویسان وجود داشته باشد و در طراحی سیستم از آن مطلع نشوند، ممکن است این سوگیری در طراحی، انتخاب دادههای یادگیری و یادگیری ماشین تأثیر بگذارد. سیستم شناختی انسان مستعد ابتلا به سوگیریهای شناختی گوناگون است که به شکل دوم سوگیری، یعنی سوگیری شناختی منجر میشود. مثلاً انسانها مایل هستند اطلاعات را برای تأیید آنچه از قبل به آن اعتقاد دارند، تفسیر کنند. این نوع سوگیری نیز میتواند ازطریق طراحی در یادگیری ماشین اثرگذار باشد. گاهی ممکن است دادهها سوگیری داشته باشند. برای مثال، اگر در یادگیری ماشین، دادههای آموزشی سوگیری داشته باشند، ماشین براساس همین دادهها یاد گرفته و خروجی نیز ممکن است دارای سوگیری باشد (Muller, 2021). مثال: اگر در آموزش ماشین برای تولید تصاویر فیگوراتیو، دادههای اولیه بیشتر شامل تصاویر مردان سفیدپوست باشد، این سوگیری در یادگیری ماشین اثر میگذارد و احتمال تولید تصاویر فیگوراتیو مرد سفیدپوست بیشینه خواهد بود. در چنین شرایطی، آیا میتوان اثر را تبعیضآمیز تلقی کرد؟ درصورتیکه پاسخ به این پرسش بله باشد، مسئولیت اخلاقی این تبعیض بر عهدۀ چه کسی است؟ درصورتیکه سوگیری دادهها، براساس طراحی نباشد و صرفاً آمار تصاویر فیگوراتیو مرد سفیدپوست بهاینعلت بیشتر باشد که هنرمندان بیشتری در تاریخ تصاویر فیگوراتیو مرد سفیدپوست را کشیدهاند، چه کسی مسئول این تبعیض خواهد بود؟ ۶-۳. اتوماسیون و اشتغال یک تصور رایج این است که با گسترش استفاده از هوش مصنوعی و ورود آن به بخشهای گوناگون زندگی، احتمالاً بسیاری از فرصتهای شغلی از میان میرود. اتوماسیون بهشکل کلاسیک همراه با صنعتیشدن جوامع، تا حدود زیادی جای عضلات انسان را گرفت. اکنون اتوماسیون دیجیتال میخواهد جای تفکر انسان یا پردازش اطلاعات را بگیرد. همانطور که انقلاب صنعتی، به تغییر در بازار کار منجر شد، این تغییر جدید هم میتواند به تغییرات اساسی در بازار کار بینجامد. آمارها نشان میدهد در شرایط جدید، مشاغل نیازمند به تخصص و مهارتْ بسیار پرتقاضا هستند، بازار کار مشاغلی که خدمات و مهارت کم نیاز دارند، کمتقاضاست و در اکثریت مشاغلی که به توانایی متوسط نیاز دارند و کارِ کارکنان یک روند قابلپیشبینی دارد، بیشترین ریسک جایگزینشدن ماشین بهجای انسان وجود دارد (Muller, 2021). حال باید دید: آیا هوش مصنوعی در هنر نیز آثار مشابهی دارد؟ بهعبارتی دیگر، هوش مصنوعی مشاغل هنرمندان را در خطر میاندازد؟ احتمالاً زمانی هوش مصنوعی خواهد توانست چنین خطری ایجاد کند که دستِکم بتواند بخشی از بازار کار هنرمندان را تصاحب کند. مثال: آرون هرتزمن معتقد است که هوش مصنوعی، ابزاری در دست هنرمند است و نمیتواند جای او را بگیرد. وی استدلال میکند هنر یک عمل اجتماعی[40] است که عامل اجتماعی[41] آن را برای بیان و ارتباط خلق میکند. برایناساس، برای اینکه هوش مصنوعی را خالق اثر هنری بخوانیم، باید آن را یک عامل اجتماعی در تلاش برای ارتباط و اشتراک افکار خود ازطریق خلق اثر هنری بدانیم. باید توجه داشت اگرچه هوش مصنوعی با انسان (عوامل اجتماعی) در ارتباط است و تولیدات هوش مصنوعی با انسان به اشتراک گذاشته میشود، در اینجا تفاوت عمدهای میان ارتباط و اشتراکگذاری دو عامل اجتماعی (دو انسان) با هم و هوش مصنوعی با عامل اجتماعی (انسان/انسانها) وجود دارد. ماشین برای بیان خود، به ارتباط و اشتراکگذاری با عوامل اجتماعی دیگر التفاتی[42] ندارد و این ارتباط و اشتراکگذاری برمبنای طراحی ماشین صورت میگیرد. هرتزمن با این مقدمات نتیجه میگیرد که هوش مصنوعی یک عامل اجتماعی نیست؛ بنابراین، نمیتواند جای هنرمند را بگیرد و اثر هنری خلق کند (Hertzmann, 2018). هوش مصنوعی بهمانند انسان هوشمند نیست؛ اما به نظر میرسد بیش از یک ابزار باشد و هرتزمن، برخی از امکانات و ویژگیهای آن را نادیده گرفته است. قلم، ابزاری در دست نقاش است؛ اما تفاوتهای بنیادینی با هوش مصنوعی دارد. هوش مصنوعی براساس تجربیات گذشته تصمیمگیری میکند، با استفاده از دادهها یاد میگیرد و خود را تغییر میدهد؛ درحالیکه قلم و بهصورت کلی ابزار نمیتواند خود را تغییر دهد و اصلاح کند. البته ازاینجهت میتوان با هرتزمن همدل بود که یادگیری و تغییرات هوش مصنوعی برپایۀ التفات هوش مصنوعی صورت نگرفته است؛ اما همچنان باید توجه داشت که تقلیل هوش مصنوعی به یک ابزار میتواند به نادیدهگرفتهشدن ویژگیهای آن منجر شود. برخی معتقدند باتوجهبه این ویژگیها، میتوان هوش مصنوعی را یک مدیوم[xix] دانست. واژۀ مدیوم به چیزی بیش از یک ابزار اشاره میکند و دامنۀ امکانات و محدودیتهای ذاتی خلق اثر هنری را نیز دربرمیگیرد. مطابق با این دیدگاه، وجه اجتماعی تولید و خلق اثر هنری و یکسانندانستن هوشمندی ماشین با هوش انسان کماکان پابرجاست؛ اما ظرفیت و امکانات هوش مصنوعی نیز از نظر دور نمیماند (Mazzone & Elgammal, 2019). حال چه هوش مصنوعی را یک ابزار بدانیم و چه یک مدیوم، به نظر میرسد در برخی موارد توانسته است بازار رقابت را ازآنِ خود کند. گزارش برخی پژوهشها نشان میدهد که گاهی آثار تولیدشده توسط ماشین برای مخاطب انسانی قابلشناسایی نیست و مخاطبان صرفنظر از اینکه اثر را انسان تولید کرده باشد یا ماشین، آن را اثری هنری میدانند[xx] و نمایشگاههای این آثار برگزار میشود و خرید و فروش صورت میگیرد (Mikalonytė & Kneer, 2021; Elgammal et al, 2017). در چنین شرایطی، آیا باید پذیرفت که بسیاری از هنرمندان کار خود را از دست بدهند و یا جلوی تولید آثارِ ماشین را گرفت؟ ۴. بحث و بررسی در بخش پیشین، برخی از چالشهای اخلاقی هوش مصنوعی اثرگذار در مباحث مربوط به حوزۀ هنر معرفی شدند. حال در این بخش، پیرو مطالب بالا به برخی از مباحث پرداخته میشود. ۱. اگر به مثال حریم خصوصی و نظارت مراجعه کنیم، مشاهده میکنیم که چالشهای اخلاقی هوش مصنوعی، دستِکم در حوزۀ هنر در بسیاری موارد درهمتنیده هستند. مثال این بخش اگرچه حول حریم خصوصی است، به مبحث تاری و شفافیت نیز وارد میشود. همچنین، با تکیه بر همین مثال میتوان به مبحث دستکاری در رفتار رجوع کرد و در آنجا نیز مشاهده میشود که هوش مصنوعی باتوجهبه دادههای فراوان میتواند اطلاعاتی بیش از هر روش دیگری به دست آورد و تغییرات رفتار را تقویت کند. در همین مثال مشاهده میشود که مبحث اتوماسیون و اشتغال نیز بهشیوهای دیگر مطرح میشود و خطر ازدسترفتن برخی مشاغل برای هنرمندان مشخص میشود. همانطور که در ابتدای بخش دوم پژوهش مطرح شد، بسیاری از مباحث اخلاقی در بیشتر پژوهشها تکرار میشوند؛ علت اصلی این تکرار را میتوان همین درهمتنیدگی مباحث دانست که خود موجب میشود برای توجه به یک مبحث، توجه به مباحث دیگر نیز لازم باشد. ۲. در برخی از موضوعات مشاهده شد که گاهی راهکارهای فنی برای فایقآمدن بر چالشهای اخلاقی ارائه میشود. باید توجه داشت که در اینجا محدودیتهایی وجود دارد. گاهی اگر بخواهیم برخی از مشکلات مطرحشده در بالا را فقط با تکیه بر راهکارهای فنی یا طراحی برطرف کنیم، خود میتواند به بروز معضلات دیگر منجر شود. برای مثال، نتایج پژوهشها نشان میدهد گاهی اگر بخواهیم مشکلات مربوط به شفافیت را برطرف کنیم، مشکلات امنیتی دادهها بروز پیدا میکند و حریم خصوصی در خطر خواهد افتاد (Felzmann et al., 2020: 3340). باتوجهبه نزدیکی موضوعات اخلاقی و مشکلی که تضاد رفع مشکلات به وجود میآورد، همواره با پاسخی صریح روبهرو نیستیم. مثلاً نمیتوان بهسادگی گفت که حریم خصوصی از شفافیت مهمتر است؛ بنابراین، باید شفافیت را کنار گذاشت و بر حریم خصوصی تمرکز کرد. با چنین انتخابی، برای حفظ حریم خصوصی، موضوعی همچون حق مالکیت معنوی آثار تولیدشده توسط ماشین، دیگر قابلبررسی نخواهد بود. همچنین، اگر به راهکار فنی که در مبحث حریم خصوصی به آن اشاره شد، باز گردیم، مشاهده میکنیم که راهکارهای فنی ممکن است بتوانند بخشی از چالشها را برطرف کنند؛ اما در آنجا نیز با محدودیتهایی مثل نیاز به بهروزرسانیهای فنی برای چالشهای جدید روبهرو خواهیم بود. ۳. در کنار مواردی که در مبحث قبل به آن اشاره شد، استفاده از اصلاحات فنی و توجه به طراحی هوش مصنوعی برای رفع چالشهای اخلاقی، دشواریهای دیگری نیز وجود دارد. برای مثال، نظریهها و مکاتب اخلاقی مختلفی گاهی اختلافنظرهای بسیار مهم و بنیادینی با یکدیگر دارند. پاسخ به پرسشهایی که در مثالهای مباحث اتوماسیون و اشتغال، سوگیری در تصمیمات سیستم و تاری و شفافیت مطرح شد، نیازمند اتخاذ یک رویکرد اخلاقی است. پرسش اصلی این است که دربرابر چالشهای اخلاقی هوش مصنوعی کدام رویکرد و مکتب اخلاقی اتخاذ شود. البته باید توجه داشت که این مبحث به حوزۀ هنر محدود نیست و پرسشی مهم در حوزۀ سیاستگذاری هوش مصنوعی محسوب میشود که در هنر نیز مؤثر خواهد بود. ۴. انتخاب دادهها در مبحث سوگیری، طراحی سیستم در مبحث تاری و شفافیت، نحوۀ استفاده در مبحث دستکاری در رفتار، هر کدام میتوانند به بروز چالشهای اخلاقی هوش مصنوعی در حوزۀ هنر منجر شوند؛ بنابراین، چه زمانی که از اخلاق هوش مصنوعی بهصورت عام سخن به میان میآید و و چه زمانی که در حوزۀ هنر مطرح میشود، دادهها، طراحی و استفاده از هوش مصنوعی مورد توجه قرار میگیرند. شایان ذکر است که دادهها، طراحی و استفاده میتوانند یکدیگر را تشدید کنند. برای مثال، دادهها، طراحی و استفاده ممکن است سوگیری داشته باشند. در چنین شرایطی، برطرفکردن سوگیری بسیار دشوار خواهد بود. ۵. در حوزۀ هنر بهعنوان یکی از حوزههایی که از هوش مصنوعی در آن استفاده میشود، با پرسشها و چالشهای اخلاقی روبهرو میشویم. شناخت چالشها نیازمند بررسی در حوزههای اختصاصی است. بهعبارتی، اگر حوزۀ هنر بررسی نشود، چالشهای هوش مصنوعی در این حوزه ناشناخته باقی خواهند ماند. همچنین، مشخص شد بسیاری از مباحث اخلاق هوش مصنوعی در حوزههای دیگر را میتوان در حوزۀ هنر نیز بررسی کرد؛ بنابراین، میتوان گفت شناخت مباحث اخلاقی هوش مصنوعی در حوزههای مختلف میتواند ما را برای بررسی آنها در دیگر حوزهها یاری دهد. حال همانطور که در بررسیهای پیشین مشخص شد، دادهها، طراحی و استفاده از هوش مصنوعی میتوانند چالشهای اخلاقی متعددی را پدید آورند. استفاده از دادهها و استفاده از هوش مصنوعی را اگرچه میتوان در سطح حوزۀ اختصاصی بررسی کرد و شاید بتوان برخی راهکارهای مشخص برای آن یافت، اما طراحی را نمیتوان بهاینشیوه مورد نظر قرار داد. بهعبارتی دیگر، محدودیتهایی که در طراحی اخلاقی هوش مصنوعی وجود دارد، در بسیاری از موارد ناشی از محدودیتهای فنی است. صرفنظر از مواردی که بالاتر درخصوص اتخاذ راهکارهای فنی به آن اشاره شد، باید در نظر داشت که خود پیادهسازی فنی نیز محدودیتهایی دارد. پژوهشگر حوزۀ اخلاق، فلسفه و هنر میتواند در مباحث اخلاق هوش مصنوعی ورود پیدا کند؛ اما دستآخر این برنامهنویس است که مباحث مطرحشده را به زبان ماشین برمیگرداند. برنامهنویس ممکن است در شناخت مباحث اخلاقی مطرحشده از این پژوهشگران یاری بگیرد؛ اما محدودیتهای فنی که با آن روبهرو است، همیشه برطرفشدنی نیست. برای مثال، برنامهنویس برای طراحی سیستم هوش مصنوعی باید کدهای اخلاقی را بهزبانِ ریاضیاتی سیستم بنویسد و یکی از محدودیتها تبدیل مباحث کیفی به شیوۀ کمّی است (Hagendroff, 2022). پس درمجموع، میتوان گفت که بخشی از چالشها و معضلات اخلاقی هوش مصنوعی در حوزۀ هنر، نیازمند پاسخهای عمومی در هوش مصنوعی است. ۶. در استفاده از تکنولوژیهای جدید گاهی پیشنهاد میشود فرهنگسازی و آموزش برای رفع و یا جلوگیری از چالشهای اخلاقی انجام شود. در مثال بخش حریم خصوصی و نظارت مشاهده شد که کلاندادهها میتوانند اطلاعات فراوانی را فاش کنند که پیشتر از آنها اطلاع نداشتهایم. اگرچه اهمیت آموزش انکارناپذیر است، دربرابر کلاندادهها نمیتوان آن را راهکاری مؤثر در نظر گرفت؛ چراکه این دادهها بهشیوههای مختلفی جمعآوری میشوند و این تنها انتخاب ما نیست. مثلاً ممکن است هنرمندی خودْ از هوش مصنوعی استفادهای نبرد، اما آثار او و دادههای او توسط دادههای مخاطبان او گردآوری میشوند. از منظری دیگر نیز باید توجه کرد که آموزشهای ما همواره معطوف به گذشته است؛ درحالیکه دادههای فراوانی در حال تولید هستند و الگوها و مدلهایی را پدید میآورند که با رجوع به گذشته نمیتوان به آنها دست یافت. ۶. ممکن است بسیاری از سناریوهای مطرحشده رخ ندهد[xxi]؛ اما مباحث اخلاق هوش مصنوعی باید نهتنها به سناریوهای رخداده، بلکه به سناریوهای احتمالی نیز بپردازد. باتوجهبه مباحث بالا، طراحی اخلاقی و تمرکز بر اصلاحات فنی، سیاستگذاری، آموزش و سایر شیوهها هرکدام با محدودیتهایی روبهرو هستند. دور از ذهن نیست که در چنین شرایطی، پرسیده شود: آیا مقصود این است که هیچ راهکاری وجود ندارد؟ دربرابر این پرسش باید توجه کرد که محدودیتهای اشارهشده انکارناپذیر است؛ اما بهمعنای بیاثربودن راهکارها هم نیست. هرکدام از این راهکارها تا حدودی موفقیتآمیز بودهاند و همانطور که ذکر شد، میتوانند بخشی از چالشها را مرتفع کنند؛ بنابراین، پاسخ این خواهد بود که اگرچه راهکار نهایی و به دور از محدودیت در اختیار نیست، به نظر میرسد بهترین شیوه درحالحاضر استفاده از تمام راهکارهای موجود در کنار هم باشد. نتیجهگیری اگر دربرابر هوش مصنوعی، رویکردی منفی در پیش بگیریم و آن را بهتمامی مخرب بدانیم، بسیاری از امکاناتی را که پدید میآورد، نادیده گرفتهایم. همچنین، اگر به چالشها و موضوعات اخلاقی هوش مصنوعی توجه کافی نشود، میتواند آثار زیانباری به وجود آورد. بهمنظور اینکه هم از امکانات و فرصتها استفاده شود و هم خطرات احتمالی کاهش یابد، نیاز است که با موشکافی مباحث اخلاقیِ آن، بررسی شود. پژوهش حاضر نشان میدهد بسیاری از موضوعات اخلاق هوش مصنوعی، به حوزۀ هنر نیز ورود پیدا میکنند. حریم خصوصی و نظارت، دستکاری در رفتار، تاری و شفافیت، سوگیری در تصمیمات سیستم، اتوماسیون و اشتغال ازجمله موضوعات قابلبررسی در حوزۀ هنر هستند. نتایج پژوهش حاضر نشان میدهد اگر بخواهیم از یک راهکار دربرابر چالشهای اخلاقیِ هوش مصنوعی در حوزۀ هنر استفاده کنیم، محدودیتهای گوناگونی پیش روی ما خواهد بود؛ بههمیندلیل، مناسبترین رویکرد میتواند اتخاذ راهکارهای گوناگون در کنار هم باشد. باتوجهبه اینکه چالشهای اخلاق هوش مصنوعی در هر حوزهای ممکن است ظهور و بروزهای متفاوتی داشته باشد، جامعۀ هنر و پژوهشگران آن نیاز است آشنایی بیشتری با آن پیدا کنند. همانطور که مشاهده شد، تکنولوژیهای هوش مصنوعی اشکال مختلفی دارند و اگر با آنها آشنا نباشیم، قادر نخواهیم بود که دربرابر چالشها بررسی صحیح و راهکارهای مناسب را بیابیم. اکنون نیاز به دانش میانرشتهای برای جامعۀ هنر درزمینۀ هوش مصنوعی، امری ضروری است.
[1] Artificial Intelligence [2] DARPA: Defense Advanced Research Project Agency [3] Christie's [4] Harold Cohn (1928-2016) [5] Algorithm [6] Jan van Eyck (1390-1441) [7] Synthesiser [8] Machine Learning [9] Generative Adversarial Networks بهاختصار GAN [10] Creative Adversarial Networks بهاختصار CAN [11] Data [12] Dataset [13] Label [14] Framework [15] Generator [16] Privacy and surveillance [17] Manipulation of behavior [18] Opacity [19] Transparency [20] Bias in decision systems [21] Automation and employment [22] Autonomous systems [23] Singularity [24] Informed consent [25] Data analytics [26] Big Data [27] Deep Opacity [28] Online [29] Persuasion Machine [30] Lauren Lee McCarthy [31] David Leonard [32] Bio-signals [33] Profile [34] Paradigms [35] Opaque [36] Transparent [37] Learned bias [38] Cognitive bias [39] Statistical bias [40] Social act [41] Social agent [42] Intention
[i]) جان سرل هدف هوش مصنوعی را به دو دستۀ «ضعیف» و «قوی» تقسیمبندی کرد. هدف از هوش مصنوعی قوی، ساخت ماشینی است که تمام جنبههای ذهن انسان را داشته باشد. درمقابل، هدف از هوش مصنوعی ضعیف، ساخت ماشینی است که بتواند اعمال مشخصی انجام دهد (Searle, 1998: 9-11). درحالحاضر، این اتفاقنظر میان پژوهشگران وجود دارد که به هوش مصنوعی قوی دست نیافتهایم. گفتنی است گاهی اصطلاحات دیگری برای هوش مصنوعی قوی مانند هوش مصنوعی فوقهوشمند « superintelligence artificial intelligence» نیز به کار میرود (Muller & Bostrom, 2016) و این دو اصطلاح را میتوان معادل یکدیگر دانست. [ii]) این اثر با عنوان «Edmond de Belamy, from La Famille de Belamy» در حراج کریستی با مبلغ ۴۳۲۵۰۰ دلار در سال ۲۰۱۸ به فروش رسید (Cohn, 2018). [iii]) تکنیکهای و روشهای مختلفی در هوش مصنوعی وجود دارد؛ اما تمام این تکنیکها و روشها برای حوزۀ این پژوهش به کار گرفته نمیشوند؛ لذا فقط به روشها و تکنیکهایی پرداخته میشود که در مبحث اخلاق هوش مصنوعی در حوزۀ هنر قرار میگیرند. [iv]) برای آشنایی بیشتر با تعاریف فلسفی هوش مصنوعی رجوع کنید به (Bringsjord & Govindarajulu, 2022). [v]) در این نمونه Yes و No برای نشاندادن این به کار رفته است که دادهها مربوط به پرتقال است یا خیر. [vi]) بهعبارتی دیگر، مجموعۀ دادههای کل میوهها، جنس (میوه) را مشخص میکند و ویژگیهای پرتقال فصل است که آن را از سایر میوهها متمایز میکند. [vii]) گفتنی است که تکنیکهای یادگیری ماشین بسیار گسترده است و شکلی سادهشده از یک مثال آن در اینجا ارائه شده است تا مخاطب آشنایی اولیه با آن پیدا کند. [viii]) Discriminator: گاهی با نامهایی چون متمایزگر و تمیزدهنده نیز در متون فارسی ترجمه میشود. [ix]) Nash equilibrium: از راهحلهای نظریۀ بازی است که دستِکم شامل دو بازیکن میشود. در تعادل نش، هر بازیکن استراتژیهای بازیکنان دیگر را میداند و هیچ بازیکنی نمیتواند فقط با تغییر استراتژیهای خودش چیزی به دست آورد. اگر هر بازیکن یک استراتژی را انتخاب کند و هیچکس نتواند چیزی با تغییر استراتژی خودش به دست آورد، مادامی که دیگر بازیکنان استراتژی خود را تغییر ندادهاند، مجموعه انتخابهای استراتژیهای بازیکنان تعادل نش را تشکیل میدهد. [x]) Game theory: در GAN از بازی مجموع صفر (Zero-sum game) استفاده میشود. در این بازی، سود یک طرف، معادل باخت طرف دیگر بازی است و سود کلی بازی صفر است. بهعبارتی، سود کل فقط به برندۀ بازی میرسد. [xi]) پیشنیاز پاسخ به این پرسش، شناخت و طبقهبندی سبکهای هنری توسط سیستم است. [xii]) اگر تصویر بیش از اندازه جدید باشد و در مقایسه با آثار هنری بیش از اندازه دور از انتظار باشد، مخاطب تصویر تولیدشده را از آثار هنری تشخیص میدهد. ازآنجاکه نیاز است این تصویر بتواند مشابه یک اثر هنری در مخاطب خود اثر بگذارد، تصویر تولیدشده نباید بیش از اندازه جدید باشد. [xiii]) گفتنی است مباحث اخلاق هوش مصنوعی بسیار بیش از موارد ذکرشده هستند و به پژوهشهای گستردهتری نیاز است (Hagendorff, 2022). [xiv]) اگر در مثال یادشده فقط به دادههای نقاشیهای X متکی بودیم، ممکن بود رنگهای دیگری نیز بهجز رنگ قرمز در آثاری که سویههای غم دارند، به دست آید و تصورمان بر این باشد که مثلاً رنگ قرمز، زرد و آبی در آثار X بهدلیل احساس غم او هستند؛ اما با دادههای بیشتر و ترکیب دادههای او متوجه میشویم که این موضوع فقط مربوط به رنگ قرمز است و دو رنگ دیگر شاید براساس ذوق یا بهدلیل نیاز نقاش در این آثار تکرار شدهاند و متأثر از احساس غم نیست. [xv]) Supervised: در این شیوۀ یادگیری ماشین، تصمیمات و یادگیری تحت نظارت انسان صورت میگیرد. [xvi]) Semi-supervised: در این شیوۀ یادگیری، تصمیمات ماشین تحت نظارت انسان نیست و فقط اهداف به ماشین اعلام میشود. [xvii]) Unsupervised: در این شیوه، هیچ نظارت انسانی در تصمیمات و یادگیری سیستم وجود ندارد. [xviii]) باید توجه داشت که انتخاب پارادایم یادگیری ماشین در اینجا نمیتواند موضوع تاری و شفافیت را همیشه برطرف کند. پارادایم یادگیری ماشین در بیشتر موارد امری انتخابی نیست. پژوهشگران و فعالان حوزه در تلاش هستند تا برای مشکل تاری یادگیری ماشین، هوش مصنوعی دروننما (XAI) طراحی کنند. البته چالش اساسی این خواهد بود که در موارد پیشرفته، حتی توضیح چگونگی رسیدن ماشین به یک خروجی پیشرفته نمیتواند آن را برای انسان قابلفهم کند. [xix]) Medium: در زبان فارسی گاهی از معادلهایی همچون واسطۀ هنری، وسیلۀ هنری و یا رسانه در ترجمۀ متون هنری استفاده میشود. یکی از نگرانیها این بود که استفاده از معادلی همچون واسطه/وسیلۀ هنری نتواند بهدرستی منظور را برساند؛ چراکه هوش مصنوعی فقط در هنر استفاده نمیشود و نباید آن را فقط واسطه یا وسیلۀ هنر دانست. این موضوع دربارۀ رسانه نیز بهشکلی دیگر بروز پیدا میکرد؛ بنابراین، برای جلوگیری از اینقبیل مشکلات، این اصطلاح بهصورت «مدیوم» در متن استفاده شده است. [xx]) نتایج پژوهشها نشان میدهد که در برخی نمونهها، مخاطبان بدون اینکه آگاه باشند تصویر را ماشین خلق کرده یا هنرمند، بسیاری از تصاویر ماشین را نهتنها اثر هنری دانستهاند، بلکه به التفات هنرمند، ساختار بصری، ارتباط و الهامبخشبودن آنها نیز اذعان کردهاند (Elgammal et al, 2017). [xxi]) بسیاری از تصوراتی که افراد از هوش مصنوعی دارند، ازلحاظ تکنیکی هنوز قابلانجام نیست. بهعبارتی، هنوز برای رسیدن به چنین مرحلهای با چالشهای مختلفی در طراحی و مدلسازی مواجه هستیم (Hagendorff & Wezel, 2020). | ||
مراجع | ||
References Audry, S., & Ippolito, J. (2019). Can artificial intelligence make art without artists? Ask the viewer. Arts, 8(1), 35-43. http://dx.doi.org/10.3390/arts8010035 Briot, J. P., & Pachet, F. (2020). Deep learning for music generation: challenges and directions. Neural Computing and Applications, 32(4), 981-993. https://dx.doi.org/10.1007/s00521-018-3813-6 Bringsjord, S., Govindarajulu, N. S. (2022). Artificial Intelligence. Edward N. Zalta & Uri Nodelman (Eds.). The Stanford Encyclopedia of Philosophy. Retrieved June 10, 2023, from https://plato.stanford.edu/archives/fall2022/entries/artificial-intelligence Bringsjord, S., Govindarajulu, N. S., Banerjee, S., & Hummel, J. (2017, November). Do machine-learning machines learn?. In 3rd Conference on" Philosophy and Theory of Artificial Intelligence (pp. 136-157). Cham: Springer International Publishing. https://doi.org/10.1007/978-3-319-96448-5_14 Cohn, G. (2018). AI Art at Christie’s Sells for $432,500. New York Times, 25. Retrieved June 4, 2023, From https://www.nytimes.com/2018/10/25/arts/design/ai-art-sold-christies.html Dignum, V. (2018). Ethics in artificial intelligence: introduction to the special issue. Ethics and Information Technology, 20(1), 1-3. https://doi.org/10.1007/s10676-018-9450-z Elgammal, A. (2019). AI is blurring the definition of artist: Advanced algorithms are using machine learning to create art autonomously. American Scientist, 107(1), 18-22. https://doi.org/10.1511/2019.107.1.18 Elgammal, A., Liu, Bi., Elhoseiny, M., & Mazzone, M. (2017). Can: Creative adversarial networks, generating "art" by learning about styles and deviating from style norms. arXiv preprint arXiv:1706.07068. https://doi.org/10.48550/arXiv.1706.07068 Etzioni, A., & Etzioni, O. (2017). Incorporating ethics into artificial intelligence. The Journal of Ethics, 21, 403-418. https://doi.org/10.1007/s10892-017-9252-2 Felzmann, H., Fosch-Villaronga, E., Lutz, C., & Tamò-Larrieux, A. (2020). Towards transparency by design for artificial intelligence. Science and Engineering Ethics, 26(6), 3333-3361. https://doi.org/10.1007/s11948-020-00276-4 Goodfellow, I., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., ... & Bengio, Y. (2020). Generative adversarial networks. Communications of the ACM, 63(11), 139-144. http://dx.doi.org/10.1145/3422622 Ghosh, A., & Fossas, G. (2022). Can There be Art Without an Artist?. arXiv preprint arXiv:2209.07667. https://doi.org/10.48550/arXiv.2209.07667 Hagendorff, T. (2022). Blind spots in AI ethics. AI and Ethics, 2(4), 851-867. https://doi.org/10.1007/s43681-021-00122-8 Hagendorff, T., & Wezel, K. (2020). 15 challenges for AI: or what AI (currently) can’t do. AI & SOCIETY, 35, 355-365. https://doi.org/10.1007/s00146-019-00886-y Hertzmann, A. (2018). Can computers create art?. Arts, 7(2), 18-43. https://doi.org/10.3390/arts7020018 Hong, J. W., & Curran, N. M. (2019). Artificial intelligence, artists, and art: attitudes toward artwork produced by humans vs. artificial intelligence. ACM Transactions on Multimedia Computing, Communications, and Applications (TOMM), 15(2s), 1-16. https://doi.org/10.1145/3326337 Kammoun, A., Slama, R., Tabia, H., Ouni, T., & Abid, M. R. (2022). Generative Adversarial Networks for face generation: A survey. ACM Computing Surveys, 55(5), 1-37. https://doi.org/10.1145/3527850 Kozyreva, A., Lewandowsky, S., & Hertwig, R. (2020). Citizens versus the internet: Confronting digital challenges with cognitive tools. Psychological Science in the Public Interest, 21(3), 103-156. https://doi.org/10.1177/1529100620946707 Lee, J. Y. (2023). Can an artificial intelligence chatbot be the author of a scholarly article?. Journal of Educational Evaluation for Health Professions, 20(6), 1-6. https://doi.org/10.3352/jeehp.2023.20.6 Luger, G. (2011). Artificial Intelligence: Structures and Strategies for Complex Problem Solving. London: Pearson Education. McCormack, J., Gifford, T., Hutchings, P. (2019). Autonomy, Authenticity, Authorship and Intention in Computer Generated Art. In: Ekárt, A., Liapis, A., Castro Pena, M.L. (eds) Computational Intelligence in Music, Sound, Art and Design. EvoMUSART 2019. Lecture Notes in Computer Science, vol 11453. Springer, Cham. https://doi.org/10.1007/978-3-030-16667-0_3 Mazzone, M., & Elgammal, A. (2019). Art, creativity, and the potential of artificial intelligence. Arts, 8(1), 26-35. https://doi.org/10.3390/arts8010026 Miernicki, M., & Ng (Huang Ying), I. (2021). Artificial intelligence and moral rights. AI & SOCIETY, 36, 319-329. https://doi.org/10.1007/s00146-020-01027-6 Mikalonytė, E. S. & Kneer, M. (2021). Can Artificial Intelligence Make Art?. arXiv preprint arXiv:2104.07598. https://doi.org/10.48550/arXiv.2104.07598 Mondal, B. (2020). Artificial Intelligence: State of the Art. In: Balas, V., Kumar, R., Srivastava, R. (eds) Recent Trends and Advances in Artificial Intelligence and Internet of Things. Intelligent Systems Reference Library, vol 172. Springer, Cham. https://doi.org/10.1007/978-3-030-32644-9_32 Muller, V., & Bostrom, N. (2016). Future progress in artificial intelligence: A survey of expert opinion. Fundamental issues of artificial intelligence, 555-572. https://doi.org/10.1007/978-3-319-26485-1_33 Muller, V. (2021). Ethics of Artificial Intelligence and Robotics. The Stanford Encyclopedia of Philosophy. Retrieved June 4, 2023, from https://plato.stanford.edu/entries/ethics-ai/ Nasim, S. F., Ali, M. R., & Kulsoom, U. (2022). Artificial intelligence incidents & ethics a narrative review. International Journal of Technology, Innovation and Management (IJTIM), 2(2), 52-64. https://doi.org/10.54489/ijtim.v2i2.80 Norton, D., Heath, D., & Ventura, D. (2013). Finding creativity in an artificial artist. The Journal of Creative Behavior, 47(2), 106-124. https://doi.org/10.1002/jocb.27 Russel, S., & Norvig, P. (2020). Artificial intelligence: A Modern Approach, Fourth Edition. London: Pearson. Searle, John. (1998). The mystery of consciousness. London: Granta Books. Shan, S., Cryan, J., Wenger, E., Zheng, H., Hanocka, R., & Zhao, B. Y. (2023). Glaze: Protecting artists from style mimicry by text-to-image models. arXiv preprint arXiv:2302.04222. https://doi.org/10.48550/arXiv.2302.04222 Stocker, G., Jandl, M., & Hirsch, A. (Eds.). (2021). The Practice of Art and AI. Austria: Hatje Cantz. Zhou, Zhi-Hua. (2021). Machine learning. Singapore: Springer Nature. | ||
آمار تعداد مشاهده مقاله: 511 تعداد دریافت فایل اصل مقاله: 221 |