مایک س. شفر
چکیده:
چت جیپیتی بر اساس تکنیکهای یادگیری ماشینی تحت نظارت و تقویت شده ، برای کاربر پاسخهای انسانگونه و بدیع فراهم میکند. چت جیپیتی تبدیل به نماینده هوش مصنوعی مولد شده است، و به عنوان مخل بسیاری از جوانب زندگی، از جمله ارتباطات علمی، شناخته شده است. این مقاله به بررسی پیدایش این تکنولوژی و فرصتهای ایجاد شده برای ارتباطات علمی مثل قابلیت تطبیقپذیری و چند وجهی بودن هوش مصنوعی و قابلیت آن در ایجاد گفتگوی علمی در مقیاس بزرگ، و همچنین مشکلاتی که در زمینه صحت، اشتباه در مقیاس بزرگتر و مفهوم بازار کارایجاد میکند، میپردازد. این مقاله به سنجش پیامدهای آن بر تحقیقات روی ارتباطات علمی نیز میپردازد که به صورت گسترده تا به امروزهوش مصنوعی (مولد) را نادیده گرفته است. این مقاله به بحث در مورد اینکه دانشمندان باید ارتباطات عمومی درباره هوش مصنوعی و با هوش مصنوعی را با توجه به فراگیری روزافزون آن بررسی کنند. به علاوه، دانشمندان باید تاثیرات هوش مصنوعی را بر خود ارتباطات علمی و همچنین اکوسیستم بزرگتر ارتباطات علمی مورد بررسی قرار دهند.
کلید واژهها:
ارتباطات علمی: تئوری و مدلها؛ هوش مصنوعی، هوش مصنوعی مولد
ظهور چت جیپیتی و هوش مصنوعی مولد
تازگی و بدیع بودن چت جیپیتی به سرعت و به طور چشمگیری اثبات شده است، و احتیاجی به معرفی من ندارد اما خودش میتواند این کار را انجام دهد: ” من یک مدل زبانی بزرگ LLM هستم که از OpenAI آموزش دیدهام و طراحی شدهام که به سوالات پاسخ دهم، اطلاعات فراهم کنم، و درباره موضوعات متفاوت وارد گفتگو شوم. (چت جیپیتی براساس GPT-3 فوریه ۲۶،۲۰۲۳، ورودی: ” میتوانی لطفا خودت را در دو جمله معرفی کنی؟”). جیپیتی پایه (که مخفف “ترانسفورماتور مولد ازپیشآموزش دیده” در انگلیسی است) یک LLM خودرگرسیون میباشد که به همراه قابلیت گفتگوی چت جیپیتی، پاسخهای جدید و انسانگونه به کاربرمیدهد. این پاسخها بر اساس روشهای یادگیری تحت نظارت و تقویتی است که شامل دادههای گستردهی یادگیری دیجیتال و همچنین ارزشیابی پاسخها و بازخوردهای انسانی است. بعد از راهاندازی عمومی چت جیپیتی در ۳۰ نوامبر ۲۰۲۲، اولین نسخه این چتبات (مدل جیپیتی-۳) در کمتر از یک هفته به یک میلیون کاربر و تا ژانویه ۲۰۲۳ به ۱۰۰ میلیون کاربر رسید، احتمالا از سریعترین همه گیری های تکنولوژی در تاریخ.
چت جیپیتی از ابتدا نماد یک پیشرفت وسیع تر بوده است: ظهور هوش مصنوعی مولد که بر اساس دادههایی که با آن اموزش دیدهاست خروجی منحصر به فرد تولید میکند. هوش مصنوعی مولد میتواند متن ترجمه کند (مانند (DeepLتصویر تولید کند (مانند DALL.E, Midjourneyو Stable Diffusion ) تقلید صدا انجام دهد )مثل VALL-E) و یا مثل چت جیپیتی و رقابیش از جمله BARD, Anthropic Claude, AI Sydney و سایرینی که تا زمان انتشار این مقاله به وجود خواهند آمد، پاسخهای متنی تولید کنند. (برای نگاهی اجمالی به کمپانیهای هوش مصنوعی مولد به مقاله Mu [2023] مراجعه کنید)45.
این ابزارها در ماههای اخیر تعدد بسیار پیدا کردهاند و باور عمومی بر این است که تاثیرات اساسی بر عرصههای مختلف زندگی میگذارند و حتی آنها را مختل میکنند.33 اعم از اقصاد،16 برنامهنویسی،53 روزنامهنگاری،52 هنر،15 موسیقی،51 ورزش22 و سایر رشتهها.
هوش مصنوعی مولد علم و دانشگاه را هم به طور اساسی تحت تاثیر قرار میدهد. از طرفی احتمالا همه جنبههای تحقیقات، از شناسایی شکافهای تحقیقاتی و فرضیه سازی برپایه بررسی مقالات برای جمعآوری داده، حاشیهنگاری و کدنویسی، و در نهایت تا خلاصه کردن یافتهها، نگارش و ارائه بصری آنها اثرگذار خواهد بود.65 چکیدههای علمی و مقالات با کمک ابزارهای هوش مصنوعی به عنوان نویسنده مشترک پیش از این هم تولید شده بودند که وضعیت اینها در انجمنهای علمی مورد بحث قرار میگیرد.18 نگرانیها در مورد افزایش تصاعدی مشکل چالشبرانگیز منتشر کردن یا نکردن مقالات علمی مبتنی برهوش مصنوعی همراه با ترس از افزایش تقلب و سختتر شدن تشخیص آن افزایش یافته است.12,67
از طرفی دیگر هوش مصنوعی مولد بر آموزش هم تاثیر گذار خواهد بود. هوش مصنوعی قابلیت تولید سرفصلهای درسی برای کلاسها و برنامههای مطالعاتی دارد و میتواند سوالات امتحانی و ارزشیابی معلمان را طراحی کند.20 میتواند به عنوان دستیار دانشآموزان برای بهبود آموزش گفتگو محور، ساختاربندی نوشتههایشان و خلاصه کردن مقالات علمی ایفای تقش کند.44 به علاوه این هوش مصنوعی نشان دادهاست که قابلیت قبول شدن در امتحانات و احتمالا توانایی نوشتن تکالیف و یا پایاننامه را دارد که این امر باعث ایجاد رقابت با شناساگرهای سرقت ادبی شده است و موسسات تحصیلات تکمیلی و آموزش عالی را وادار به تاملی دوباره در باب آموزش انواع مهارتهای مرتبط کردهاست.3,11
هوش مصنوعی مولد و ارتباطات علمی
هوش مصنوعی مولد به غیر از تحقیق و آموزش – دو ماموریت اساسی جهان علم – بر روی ارتباطات علمی که سومین ماموریت هست هم اثر گذار است. ارتباطات علمی، در مفهوم کلی، مجموعهای از فعالیتها شامل ارتباط شخص دانشمندان، ارتباط (معمولا استراتژیک) سازمانهای علمی مانند بخش ارتباط عمومی و بازاریابی و روزنامهنگاری علمی و یا سایر اشکال ارتباطاعات علم محور با عموم مردم است.13,60 متخصصین در این حرفه اهداف و مدلهای متفاوتی را دنبال میکنند که در این بین، “درک عمومی از علم” و مدلهای گفتگو محور احتمالا برجستهترین ها هستند.1,9
اگر از خود چت جیپیتی پرسیده شود میگوید که بر روی جنبههای مختلف این رشته با “فراهم آوردن منابع اطلاعاتی قابل اعتماد و در دسترس در طیف وسیعی از موضوعات علمی” تاثیر بهسزایی” خواهد داشت و به “افزایش فهم عمومی از کشفیات و مفاهیم علمی” با حذف ” کجفهمی های متداول و اطلاعات غلط علمی از طریق فراهم کردن منابع و اطلاعات دقیق” و همچنین ایجاد “گفتگو میان دانشمندان و عموم مردم از طریق ساختن بستری برای طرح پرسش و پرداختن به موضوعات علمی” کمک میکند. (تصویر ۱)
متخصصین و دانشمندان حوزه ارتباطات علمی، به تاثیر هوش مصنوعی مولد بر کاربرد ارتباطات علمی پرداختهاند، و به نظر میرسد که اتفاق نظر بر تاثیر به سزای آن در آینده دارند. همانطور که معمولا در مورد تکنولوژیهای جدید اتفاق می افتد، با وجود ناداستهها و عدم قطعیتهای بسیار، میزان خوشبینی و بدبینی در این بحث، در بازهی مثبت تا افتضاح، بسیار زیاد است.
افراد خوشبین روی طیف وسیعی از کاربردهای ممکن برای هوش مصنوعی مولد تاکید میکنند. آنها بر پتانسیل آن در اتوماسیون و ساده سازی روند تولید ایدههای محتوا70 و بهبود مستمر توانایی ترجمه: قابلیت خلاصه سازی یافته ها و مقالات علمی23 و توضیح سادهی موضوعات پیچیده تکیه میکنند.(تصویر ۱)30 این تواناییها میتواند توسط نویسندگان علم برای نگارش مقالات خبری، پستهای رسانههای اجتماعی یا سایر رسانهها، برای تولید شعار و یا سرتیتر کمپینهای ارتباطی و یا ترجمه محتوای علمی برای مدخلهای ویکیپدیا مورد استفاده قرار گیرد. استفاده موسسات آموزشی و علمی از هوش مصنوعی مولد در ارتباطات و اطلاعرسانی47 و رسانه و مقالات بلاگها نشان میدهد که چگونه متخصصان شروع به استفاده از هوش مصنوعی مولد برای تولید متن کردهاند.7
در حالی که چت جیپیتی در حال حاضر فقط به صورت نوشته متنی پاسخ میدهد، به نظر میرسد که حرکت به سمت چند وجهی شدن از طریق چت جیپیتی بصری به زودی انجام میپذیرد.36 کاربران دانا در حال حاضر نشان دادهاند که هوش مصنوعی مولد میتواند هنگامی که با ابزارهای مختلف ترکیب شود، پاسخهای چند وجهی همانند ایموجیها، تصاویر و واینفوگرافی، زبان گفتاری و حتی ویدیو تولید کند. ( شکل ۱)66 هوش مصنوعی مولد حتی تولید بازی کرده است،48 که میتواند امکان بازی سازی هدفمند و مناسب ارتباطات علمی را حتی برای کاربران فاقد دانش حرفهای برنامهنویسی فراهم کند.
سایرین بر کاربردی بودن هوش مصنوعی مولد از دیدگاه کاربر تکیه میکنند. بالاخره هوش مصنوعی میتواند برای کاربران علاقمند به موضوعات علمی پاسخی سریع به سوالات مشخص بدهد.32 این امکان را به کاربر می دهد که پیچیدگیهای زبانی و نامگذازی و در کل قابلیت درک مطالب را با توجه به نیازهای خودشان تنظیم کنند و سوالات تکراری و حتی به نظر ‘احمقانه’ بپرسند.2 همچنین این امکان را فراهم میکند که از مشخصه نوبتی بودن ابزاری مثل چت جیپیتی استفاده کنند و وارد یک گفتگوی واقعی شوند و در مورد جنبههای مختلف یک سوال که کاملا متوجه نشدهاند پرسشگری کنند تا به پاسخی برسند که کاملا قانع کننده باشد.21 در نتیجه اصولا هوش مصنوعی مولد میتواند ارتباط علمی گفتگو محور در مقیاس بزرگ ایجاد کند و در این کار پتانسیل وسوسهانگیزی برای گسترش و حتی دموکراتیک کردن گفتگوهای علمی که تا به امروز معمولا محدود به گروههای کوچک و یا کاربرانی با پیش زمینه علمی بوده، وجود دارد.
تصویر ۱) بالا چپ: پاسخ چت جیپیتی (بر اساس چتجیپیتی-۳) در ۲۶ فوریه ۲۰۲۳ به ورودی ” چگونه چتجیپیتی بد ارتباطات علمی تاثیر میگذارد؟” _ پایین چپ: پاسخ هوش مصنوعی بینگ به درخواست شناسایی ضعف ها در مقالات علمی که داوران احتمالا متوجه آنها شوند، نمایش جملاتی که این ضعفها را نشان دهد و پیشنهاد چگونگی بهبود آنها41 _ راست: استفاده چتجیپیتی (بر اساس نسخه ۴) از ایموجیها برای خلاصه کردن تئوری های اجتماعی42
پتانسیل هوش مصنوعی مولد درفعالیتهای مربوط به ارتباطات علمی در حال حاضرقابل ملاحظه است و بدون شک با ظهور ابزار جدید، کشف همه قابلیتهای آن توسط کاربران، و با ادغام ابزارهای مختلف (که هم اکنون هم با معرفی افزونه ها در چتجیپیتی آغاز شده)4 وسعت مییابد. به علاوه استفاده از ابزارهای موجود آسانتر می شود و به صورت طبیعی تری در محیط نرم افزارهای موجود مثل موتوهای جستجو و یا سیستم عاملها ادغام میشوند (کاری که بینگ و یو دات کام در حال حاضر هم شروع کردهاند).
افراد بدبین از طرف دیگر تعدادی چالش نسبتا قابل توجه را شناسایی کردهاند. صحت پاسخها – میزان صحت پاسخهای چت جیپیتی از دیدگاه علمی- اولین مورد آن است. این موضوع بلافاصله پس از همگانی شدن چت جیپیتی مورد بحث قرار گرفت زیرا گلکتیکا الالام کمپانی متا که مشخصا برای متون علمی آموزش دیده بود فقط چند هفته قبل به دلیل مشکل صحت پاسخ ها شکست خورده بود.29 بر همین اساس، دائما از چتجیپیتی به عنوان “طوطی استوکاستیک”14,57 یاد میشود که فقط محتوای پاسخهایش را بر اساس دادههایی که با آنها آموزش دیده و بدون درکی عمیقتر تخمین میزند. این تخمین در مورد اعداد و ارجاعات هم صدق میکند که نهایتا معمولا اشتباه یا تخیلی شناخته میشوند و در نتیجه چتجیپیتی در زمینهای که برای ارتباطات علمی حیاتی است، ضعفهایی نشان داده است. در همین راستا مطالعات اولیه نشان داده است که کیفیت پاسخهای چت جیپیتی از دیدگاه علمی معمولا محدود بوده23 اما پیشرفتهای چشمگیری در میان نسخههای متفاوت آن (از چت جیپیتی-۳ به چت جیپیتی-۴ که موتور جستجوی مایکروسافت به نام بینگ از آن استفاده میکند) در حال حاضر به چشم میخورد. بسیاری از چیزها (مثل ادغام پیچیده منابع اطلاعاتی، یادگیری و پیشرفت با دستور جستجوی آنلاین و پیشنهادات خلاقانه مبتنی بر تحقیقات و غیره) که مدتها تصور بر این بود که هوش مصنوعی در آنها موفق نباشد، در حال حاضر امکانپذیر است.43 به علاوه ابزاراتی مانند Perplexity.AI سعی در ادغام جیپیتی با گوگلScholars دارند که بتوانند پاسخهایی با پایه علمی قویتر تولید کنند64 و شاید حتی در نهایت به عنوان راستی آزما مورد استفاده قرار گیرند.31 متخصصان همچنان باید متوجه محدودیتهای هوش مصنوعی که ممکن است به دلیل محدود بودن دادههای آموزشی اش، اصول بنیادی کارکردش یا روشها و سبک خروجیاش باشد، باشند (برای مثال در مورد جیپیتی-۳ که به طرز معروفی در سال ۲۰۲۱ پایان گرفت و در مورد سایر ابزارهای یادگیری ماشینی اغلب سوگیریهای آشکاری نشان دادهاند.37
سایرین به دلیل توانایی ماشینهای یادگیری زبان در تولید بسیار سریع متن، نگران ایجاد یک اپیدمی اطلاعاتی مبتنی بر هوش مصنوعی هستند.2 هوش مصنوعی مولد ممکن است باعث ایجاد یک سیل اطلاعاتی و “آلوده کردن استخر دانشمان” شود50 که در آن کاربران ممکن است با مشکلاتی برای یافتن اطلاعات علمی قابل اتکا مواجه شوند، تناقضا حتی ابزارهای هوش مصنوعی هم ممکن است در آینده در این زمینه طلب کمک کنند. ممکن است که محتوای قابل اعتماد در دریای اطلاعات تقریبی و رسانهای غرق شود28 و با اضافه شدن اطلاعات غلط و یا ضد اطلاعات به این دریای اطلاعاتی، این اثر تشدید میشود. خود هوش مصنوعی مولد میتواند باعث ایجاد چنین اطلاعات اشتباه یا ضد اطلاعات باشد. همانطور که تا به حال در تلاشها برای جیل برک کردن چتجیپیتی نشان داده شده است برخی کاربران راهی برای دور زدن محدودیت های داخلی آن خواهند یافت یابند.34 بر این اساس هوش مصنوعی مولد میتواند اشتباه در مقیاس بزرگ تولید کند چون میتواند سریعتر و بیشتر مرتکب اشتباه شود – با اطمینان ظاهری بیشتر و شفافیت کمتر- نسبت به هر ابداعی که به یاد داریم.68 پتانسیل در همگرایی ساخت دانش، علم تقلبی و رقیق شدن دانش50 در اکوسیستم ارتباطات مشخصا مشکل ساز خواهد بود زیرا که جهتگیریهای خصومتآمیز علیه علم در حال حاضر برجسته هستند و اهمیت زیادی پیدا کرده است.40,56
مضاف بر این، هوش مصنوعی مولد نگرانی زیادی در مورد امنیت شغلی در بخشهای مختلف ایجاد کرده است. مطالعات اولیه نشان دهنده این است که ابزارهای هوش مصنوعی میتوانند در حدود ۱۵% از وظیفه کارگران در آمریکا را به طرز قابل توجهی سریعتر و با حفظ همان کیفیت انجام دهند و هنگامی که ماشینهای یادگیری زبان(LLMs) به انضمام نرم افزارها و ابزارها شوند این سهم بین ۴۷% تا ۵۶% افزایش مییابد.16 پتانسیل تحویل کارهای نوشتنی، مجسم کردن یا حتی برنامهنویسی به هوش مصنوعی مولد، به همراه مشکلات مالی موسسات علمی و تحصیلات تکمیلی در بعضی کشورها17 و همچنین بحران اقتصادی روزنامهنگاری علمی در بسیاری از کشورها،59 میتواند مسبب چالشهای قابل توجهی برای کارشناسان ارتباطات علمی، باشد.
هوش مصنوعی مولد و تحقیقات بر ارتباطات علمی
با توجه به اینکه رشته ما ارتباطات درباره علم را مورد تحقیق قرار میدهد، هوش مصنوعی به عنوان یک تکنولوژی کلیدی و بخش مهمی از توسعه علمی بسیار کم مورد تحقیق قرار گرفته است. یک جستجوی ساده بانک اطلاعاتی چنین نشان میدهد که: وقتی که بانک اطلاعاتی اسکوپوس را برای مقالات علمی که هم “ارتباطات علمی” و هم ” هوش مصنوعی” را به کار برده باشند، مورد جستجو قرار میدهیم (در حالی که حتی جستجو را به هوش مصنوعی مولد محدود نکنیم) فقط تعداد انگشتشماری مقاله یافت میشود که آنها هم تقریبا منحصرا مربوط به چند سال اخیر هستند. (شکل ۲) وقتی کل بانک اطلاعاتی را و یا چه علوم انسانی و یا اجتماعی را مورد جستجو قرار دهیم، حالت مشابهی مشاهده میشود. همچنین همین وضعیت وقتی که جستجوی مشابهی را در سه مجله تاثیرگذار در زمینه ارتباطات علمی (JCOM, Public Understanding of Science, Science communication ( انجام دهیم مشاهده میشود. در تحقیقات من در این مقاله بیشتر مشخص شد که: اگرچه بسیاری مقالات رسانهای و پستهای شبکههای اجتماعی و غیره تاثیر چت جیپیتی، هوش مصنوعی مولد و هوش مصنوعی را بر سایر رشته ها شامل نشریات علمی و به طور کلی فرآیندهای علمی مورد بحث قرار میدهند،اما مقالات مربوط به نقش آنها در ارتباطات علمی نسبتا کمیاب است.
با توجه به اهمیت هوش مصنوعی مولد، پتانسیل رشد و تاثیر آن بر این رشته تخصصی، ما به عنوان محققان ارتباطات علمی نیاز فوری به رفع موضوع زیر داریم : به یک اجبار تحقیقاتی برای بررسی پیوند میان هوش مصنوعی (مولد) و ارتباطات علمی داریم. چهار مسیر تحقیقاتی میتواند و باید دنبال شود:
اول اینکه دانشمندان باید ارتباطات عمومی درباره هوش مصنوعی را تحلیل کنند. هوش مصنوعی مولد و به طور کلی هوش مصنوعی موضوعات اساسی علمی و تکنولوژیکی هستند که به مباحث عمومی پرطرفدارهم تبدیل شدهاند و در نتیجه یک موضوع طبیعی برای تحقیق در مورد ارتباطات علمی هستند. این تحقیق با هوش مصنوعی مانند هر موضوع دیگری در ارتباطاعات علمی رفتار خواهد کرد و نتیجتا طیف کاملی از خصوصیات تحلیلی ذیل را میتواند بر آن اعمال کند.
- از جنبه تولیدی محققان باید به بررسی اینکه دانشمندان، موسسات علمی و تحصیلات تکمیلی، شرکتهای تکنولوژی محور، سهامداران، قانونگذاران، روزنامهنگاران، سازمانهای غیر دولتی و سایرین چگونه در مورد هوش مصنوعی (مولد) ارتباط برقرار میکنند. چه دیدگاهها، چهارچوبها و تصوراتی را ترویج میکنند و از چه استراتژیای برای برجسته کردن خودشان و در کدام عرصه عمومی استفاده میکنند. برخی دانشمندان در حال حاضر این کار را بدون تمرکز ویژهای بر هوش مصنوعی مولد یا مربوط ساختن آن به ارتباطات علمی و با جهتگیری واضح به سمت شرکتهای ارتباطی در کشورهای انگلیسی زبان، انجام دادهاند. (برای یک نگاه اجمالی به منابع 55 و رجوع کنید)
- دانشمندان همچنین باید به تحلیل چگونگی ارتباطات عمومی در مورد هوش مصنوعی مولد در رسانههای قدیمی، رسانههای اجتماعی، تصاویر عمومی، حسابهای کاربری غیر واقعی و سایر بسترها بپردازند. فقط تعداد اندکی از محققان این کار را در مورد هوش مصنوعی به طور کلی انجام دادهاند و درنتیجه کمبود تحلیل در مورد هوش مصنوعی مولد وجود دارد.6
شکل ۲: چپ: تعداد مقالاتی که سالانه در بانک اطلاعاتی اسکوپوس ترکیب “ارتباطات علمی” (طوسی) و همزمان “ارتباطات علمی” و “هوش مصنوعی” (قرمز) را در سرتیتر، کلیدواژهها یا چکیده ذکر کرده اند. راست: تعداد مقالاتی که سالانه در سه مجله علمی که متمرکز بر ارتباطات علمی (طوسی) و تعدادی از آن مقالات که “هوش مصنوعی” را در سرتیتر، کلیدواژهها و یا چکیده ذکر کردهاند (قرمز).
*جستجوی اسکوپوس شامل انواع اسناد زیر بوده است: مقاله، فصل کتاب، سرمقاله، مقاله کنفرانس، کتاب، مقاله کوتاه و یادداشت. اولین جستجو شامل کل بانک اطلاعاتی و دومی فقط در مورد “علوم اجتماعی”، “روانشناسی” ، “هنر و علوم انسانی”، “کسب وکار، مدیریت و حسابداری” و”اقتصاد، اقتصاد سنجی و علم دارایی”، و سومین جستجو فقط شامل موضوع “علوم اجتماعی” بوده است. جستجو در فوریه ۲۰۲۳ انجام گرفتهاست.
- علاوه بر این، دانشمندان باید چگونگی استفاده و منطقی کردن محتوای مربوط به هوش مصنوعی (مولد) توسط افراد غیر متخصص، افراد ذینفع و قانونگذاران را مورد تحلیل قرار دهند: آنها اطلاعات مربوط به هوش مصنوعی را از کجا بدست میآورند، از چه منابعی استفاده میکنند، چگونه آنها را ارزشیابی میکنند و اینها چه تاثیری بر دانش یا نگرش و نحوه استفاده آنها ازهوش مصنوعی (مولد) دارد؟61
اما، دوما، هوش مصنوعی مولد نسبت به سایر موضوعات تحقیقات ارتباطات علمی از لحاظ اینکه خود این تکنولوژی مسئولیت پذیری افزایش یافته در قالب هوش مصنوعی ارتباطی دارد، تفاوت دارد.26 بعضی دانشمندان حتی بر این باورند که جیپیتی-۴ شامل بارقههایی از هوش مصنوعی عمومی است.8 در نتیجه، دانشمندان همچنین باید برهمکنش های کاربران با چت جیپیتی یعنی ارتباط با هوش مصنوعی را بررسی کنند.
- برای انجام چنین کاری، از طرفی، دانشمندان باید بهتر درک کنند که هوش مصنوعی مولد چگونه کار میکند – که اگرچه غالبا چالش برانگیز است. اگر از چت جیپیتی به عنوان نمونه استفاده کنیم: اگرچه شرکت تولید کننده این چت بات، اوپن ایآی، چگونگی تولید و آموزش کلی آن را فاش کرده است اما اطلاعات خاص و جزئیات در مورد داده های آموزشی و الگوریتم های آن محرمانه است – این محرمانه بودن باعث ایجاد جعبه سیاه معمول میشود که جنبههای بسیاری از تکنولوژی های بسیار مهم درجامعه دیجیتالی و داده محور (از الگوریتم موتورهای جستجو روی سیستمهای توصیه گر تا جزئیات بازبینی محتوا) را مخفی میکند 63این جعبه سیاه به شدت مانع توانایی دانشمندان حوزه ارتباطات علمی (یا سایر حوزهها) در قضاوت کردن در مورد هوش مصنوعی مولد، پتانسیل آن و همچنین پتانسیل جهتگیری آن میشود. اگرچه روشهایی مانند مهندسی معکوس (که سعی در درک کردن یک فرآیند یا مدل از طریق تحلیل سیستماتیک دادههای ورودی و خروجی به یک جعبه سیاه میکند) محدود هستند اما نیازی فوری به آنها به دلیل عدم وجود جایگزین بهتر وجود دارد.
- از طرفی دیگردانشمندان باید هوش مصنوعی مولد را به عنوان یک نماینده یا مامور ارتباطات علمی مورد تحلیل قرار دهند. چگونگی تعامل مردم با هوش مصنوعی مولد، چگونگی پاسخ آن و نتیجه این تعامل بر هر دو طرف از سوالات تحقیقاتی جالب در آینده نزدیک خواهد بود.38 برای مثال اولین مطالعه این چنینی که توسط چن، شائو، بوراپاچیپ و لی (۲۰۲۲)10 انجام شد، حدود ۲۰،۰۰۰ دیالوگ جیچیتی-۳ و ۳۲۹۰ نفر در مورد تغییرات آبوهوایی و جنبش “جان انسانهای سیاهپوست اهمیت دارد” را مورد تحلیل قرار داد. این نتیجه حاصل شد که در میان سایر چیزها، چتبات به گروهی که تکذیب کننده تغییرات آب و هوایی هستند جوابهای متفاوتی نسبت به سایر گروهها داد، نه تنها به آنها لینکهای خارجی و نتیجه تحقیقات بیشتری نشان داد بلکه زبان احساسی و لحن منفیتری در قبال آنها به کار برد. بازسازی این تعاملات ، دلایلشان و همچنین تاثیرات آن بر کاربر انسان و ابزارهای هوش مصنوعی مولد بسیار حائز اهمیت است.49
سومین شاخه تحقیقات باید تاثیرات هوش مصنوعی مولد را بر ارتباطات علمی و بنیان آن مورد موشکافی قرار دهد. این بخش هم حداقل دو جنبه دارد:
- از طرفی دانشمندان باید چگونگی تاثیرات هوش مصنوعی مولد را بر روی طیف کاملی از موضوعات علمی تحلیل و بررسی کنند. با توجه به اینکه مدلهای یادگیری زبان خودرگرسیون به دادههای آموزشی خود اتکا میکنند و ویژگیهای این دادههای آموزشی روی چگونگی کارکرد مدل های یادگیری زبان تاثیر میگذارد اما این دادههای آموزشی ممکن است برای رشتههای مختلف به میزان یکسانی طبقه بندیشده و در دسترس نباشند، به همین دلیل آگاهی از تمایل رشتههای مختلف برای استفاده از هوش مصنوعی مولد در ارتباطاتشان جالب خواهد بود. آیا تفاوتی بین رشتههای علوم پایه و علوم رفتاری و اجتماعی یا برای مثال هنر وجود دارد؟ آیا رشتههایی که دارای گزارشات شفاف و به روز و جدید (که به صورت عمومی قابل دسترس هست) نسبت به سایرین مزیت دارند؟ مثل علوم اقلیمی با گزارشات ارزشیابی منظم از هیئت بین دولتی تغییرات آب و هوایی. آیا حوزههای پژوهشی بزرگ و اصلی با موضوعات کوچک و متمرکز تفاوت دارد (مخصوصا اینکه داده های آموزشی جیپیتی-۳ در هنگام نشرش به طور کامل به روز نبود) آیا حوزههای قدیمیتر از موضوعات جدید متفاوتاند؟
- از طرف دیگر دانشمندان باید بررسی کنند که آیا و چگونه هوش مصنوعی مولد تاثیر بر اکوسیستم وسیعتر ارتباطات علمی میگذارد و یا تغییر باالقوهای در آن ایجاد خواهد کرد. این کارشامل تحلیل این موضوع است که آیا جنبههای مثبت و منفی فودقالذکر حقیقت دارد: میزان فراگیری این تکنولوژی برای تکمیل و کمک به ارتباطات علمی چه میزان خواهد بود، آیا در همه روشها استفاده میشود، و تا چه میزان میتواند مکالمات علمی را دموکراتیک کند؟ و در مقابل محتوای تولید شده توسط هوش مصنوعی مولد چه میزان صحت دارد، حاوی چه میزان اطلاعات غلط است و آیا واقعا “اشتباه در مقیاس بالا” تولید میکند؟ همچنین شامل سوالاتی درباره جایگاه مکاتبه کنندهها و استعداد باالقوه آنها مشود : آیا هوش مصنوعی مولد به مکاتب کوچک و کم تاثیرگذار این اجازه را میدهد که فاصله خودشان را با اشخاص صاحب نام کم کنند چرا این ابرار برای همه فراهم است، یا اشحاص مکاتبه کننده ی صاحب قدرت قادر خواهند بود از آن برای تقویت بیشتر جایگاه خودشان استفاده کنند. همانند “شکاف دیجیتال”27 پیرامون ارتباطات آنلاین و شبکههای اجتماعی، احتمالا هوش مصنوعی مولد هم باعث ایجاد شکاف در میان کاربرانش میشود. احتمال به وجود آمدن شکاف درجه اول از لحاظ دسترسی به هوش مصنوعی به وجود می آید چرا که این تکنولوژی ممکن است یا بیش از اندازه گران باشد و یا کلا در دسترس بعضی کاربران نباشد. همچنین احتمال به وجود آمدن شکاف درجه دوم از لحاظ تفاوت سطح سواد و مهارت در استفاده از تکنولوژی وجود دارد یعنی بعضی کاربران ممکن است مهارت بیشتری در استفاده موثر از هوش مصنوعی به نسبت سایر کاربران داشته باشند. از انجاییکه ” چت جیپیتی برای ارزشمند بودن احتیاج به یک کاربر بسیارفهیم دارد” این یک شکاف قطعی است19 چرا که این توانایی به صورت مساوی در جمعیت تقسیم نشده است و نتیجتا منجر به بزرگ شدن شکاف بین گروهی که توانایی استفاده سودمند از هوش مصنوعی مولد را دارند و کسانی که این توانایی را ندارند میشود.
چهارم اینکه ظهور هوش مصنوعی مولد یک چالش تئورتیک و مفهومی است. به هر حال ” هوش مصنوعی و تعامل انسان با آن … در الگوی تئوری ارتباطات که برای مدتی طولانی بر تعملات انسان با انسان تمرکز داشته است، نمیگنجد.26 برای مثال تفاوت ذکر شده بین اطلاعات غلط و ضد اطلاعات معمولا بر اساس نیت شخص ارتباط برقرار کننده، مشخص میشود: بر این اساس اطلاعات غلط به عنوان اطلاعات اشتباه که سهوا مخابره شده، در حالی که ضد اطلاعات به عنوان اطلاعات اشتباهی که از روی عمد مخابره شده تعریف میشود.69 اما تشخیص تفاوتهای اینچنینی وقتی پای هوش مصنوعی مولد در میان است دشوارتر میشود. در اینجا کارهای مفهومی و تئوری سازی در زمینههایی همچون ارتباط ماشین انسان25 و رویکردهای سازنده اجتماعی مانند مطالعات تکنولوژی و علوم یا نظریه شبکه کنشگر، نیاز است. تحقیقات بر روی ارتباطات علمی با در نظر گرفتن سابقه میان رشتهای آن باید کامل و دربرگیرنده باشد.24
درس بزرگتر و مسیر پیش رو
این مباحث بیانگر این است که هوش مصنوعی مولد، شامل چت جیپیتی وحتی فراتر از آن، از اهمیت فوقالعادهای در در ارتباطات علمی و تحقیقات بر آن برخوردار است. اگرچه هنوز انشعابات کوتاه مدت هوش مصنوعی مولد برای ارتباطات علمی اکثرا نا مشخص است (چه رسد با انشعابات بلند و میان مدت) متخصصان و دانشمندان باید این تکنولوژی را جدی بگیرند، آنرا منتقدانه بسنجند، فرصتهای ایجاد شده توسط آن را غنیمت شمارند، و همچنین به رفع چالشهای آن بپردازند.
همه این نکات ارجحیت بیشتری دارند چرا که هوش مصنوعی مولد، و کلا هوش مصنوعی، هنوز به یک مسآله مهم برای جامعه علمی تبدیل نشده است. این موضوع باید و احتمالا تغییر خواهد کرد همانطوری که عموم تواناییش در تطبیق گرفتن به سرعت با مسائل به وجود آمده مانند پاندمی کرونا نشان داده است.
نکته کلی که میتوان از ظهور سریع هوش مصنوعی مولد آموخت این است که باید همگی به طور مداوم مراقب ابداعات اجتماعی-فنی که میتوانند ارتباطات (علمی) را تحت تاثیر قرار دهند باشیم.54,62 ظهور ارتباطات آنلاین و شبکههای اجتماعی، پیدایش تولید و توصیه الگوریتمی، رشد بسترهایی برای ویدیوهای کوتاه و تمایل به سمت پیام های آنی وغیره، ارتباطاعات علمی را به میزان قابل توجهی در سالهای اخیر دستخوش تغییر کرده است در حالی که پیشرفتهای جدید هم قطعا خواهند آمد. متخصصین و دانشمندان علاقمند به ارتباطات علمی (و همچنین سایر زمینهها) باید پابهپای پیشرفتهای تکنولوژیکی حرکت کنند و تاثیرات آن را در زمینه کاری خودشان بازتاب دهند.
دومین نکتهای که به یاد داشته باشیم این است که پیشرفتهای تکنولوژیکی ممکن است تحت تاثیر قرار گیرند. ساختار اجتماعی تکنولوژی5 و روشهای مربوط به آن نشان دادهاند که نه تنها قابلیتها و ظرفیتهای تکنکلوژیکی بلکه عوامل اجتماعی، اجتماعی-فرهنگی و اجتماعی-سیاسی خط سیر تکنولوژی را تحت تاثیر قرار میدهند. اینکه چگونه از تکنولوژی هوش مصنوعی مولد استفاده میشود، توسط چه کسانی، چگونه و با چه گستردگیای همگی نکات حائز اهمیتی در توسعه و تاثیر آن در اجتماع هستند. این موضوع میتواند تحت تاثیر هم قرار گیرد؛ یک نمونه تلاشهای عمدی برای شناسایی ارزشها و پتانسیل سوگیری هوش مصنوعی و استفاده از آن در جهت مثبت و سازنده است. تلاشهایی که مدارس مداخله جو از جمله “ارزش در طراحی”39 پیشنهاد کرده اند و احتمال بسیار زیاد دانشمندان و متخصصان ارتباطات جای خود را در این بین پیدا خواهند کرد. مثال دیگر اختلاف در مورد اصول هنجاری، اخلاقی و قانونی هوش مصنوعی مولد است همانطور که فراخوان برای مهلت قانونی داوطلبانه35 در توسعه هوش مصنوعی و ممنوعیت چت جیپیتی در ایتالیا58 نشان میدهد.
این تلاشها برای سنجش منتقدانه هوش مصنوعی مولد و محدود کردن مشکلاتش در حالی که از نیروی باالقوه آن استفاده میشود بسیار حائز اهمیت است. این حقیقت مخصوصا زمانی درست است که به نظر میرسد یک تکنولوژی هستهای دیگر از جامعه هم عصر با سرعت زیادی به چند موسسه غربی میرسد،46 شرایطی مشابه اوایل ایجاد جوامع دیجیتال، و مبتنی بر داده و پلتفرم. این جوامل حالا به شدت تحت تاثیر هوش مصنوعی (مولد) قرار خواهند گرفت و ارتباطات علمی و تحقیقاتش باید نقش مهمی در این توسعه ایفا کنند.
قدردانی
من از سابرینا اچ. کسلر برای نظرات سودمندش و ژنو کرایس و دامیانو لومباردی برای کمک به من در تهیه این مقاله تشکر می کنم.
منابع
- Akin, H. (2017). Overview of the Science of Science Communication. In K. H. Jamieson, D. M. Kahan & D. A. Scheufele (Eds.), The Oxford Handbook of the Science of Science Communication (pp. 25–33). doi:10.1093/oxfordhb/9780190497620.013.3
- Angelis, L. D., Baglivo, F., Arzilli, G., Privitera, G. P., Ferragina, P., Tozzi, A. E. & Rizzo, C. (2023). ChatGPT and the Rise of Large Language Models: The New AI-Driven Infodemic Threat in Public Health. SSRN Electronic Journal. Paper N. 4352931. doi:10.2139/ssrn.4352931
- Barnett, S. (2023). ChatGPT Is Making Universities Rethink Plagiarism. Wired. Retrieved from https://www.wired.com/story/chatgpt-college-university-plagiarism/
- Barsee (2023). ChatGPT is going to be the new App Store. Twitter. [@heyBarsee]. Retrieved from https://twitter.com/heyBarsee/status/1640044406202826756
- Bijker, W. E. (2009). Social Construction of Technology. In J. K. Olsen, S. A. Pedersen & V. F. Hendricks (Eds.), A Companion to the Philosophy of Technology (pp. 88–94). doi:10.1002/9781444310795.ch15
- Brause, S. R., Zeng, J., Schäfer, M. S. & Katzenbach, C. (2023). Media Representations of Artificial Intelligence. In S. Lindgren (Ed.), Handbook of Critical Studies of Artificial Intelligence. Edward Elgar Publishing. Retrieved from https://www.e-elgar.com/shop/gbp/handbook-of-critical-studies-of- artificial-intelligence-9781803928555.html
- Broader Impacts Productions (2023). How to Use ChatGPT for Science Communication. Broader Impacts Productions. Retrieved from https://www.broaderimpacts.tv/chatgpt-science-communication/.
- Bubeck, S., Chandrasekaran, V., Eldan, R., Gehrke, J., Horvitz, E., Kamar, E., . . .Zhang, Y. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. doi:10.48550/ARXIV.2303.12712. arXiv: 2303.12712
- Bucchi, M. (2008). Of deficits, deviations and dialogues: theories of public communication of science. In M. Bucchi & B. Trench (Eds.), Handbook of public communication of science and technology (1st ed., pp. 57–76). London, U.K.: Routledge.
- Chen, K., Shao, A., Burapacheep, J. & Li, Y. (2022). How GPT-3 responds to different publics on climate change and Black Lives Matter: A critical appraisal of equity in conversational AI. doi:10.48550/ARXIV.2209.13627. arXiv: 2209.13627
- Choi, J. H., Hickman, K. E., Monahan, A. & Schwarcz, D. B. (2023). ChatGPT Goes to Law School. SSRN Electronic Journal. Paper N. 4335905. doi:10.2139/ssrn.4335905
- Curtis, N. & ChatGPT (2023). To ChatGPT or not to ChatGPT? The Impact of Artificial Intelligence on Academic Publishing. Pediatric Infectious Disease Journal. 42(4), 275. doi:10.1097/inf.0000000000003852
- Davies, S. R. & Horst, M. (2016). Science Communication. doi:10.1057/978-1-137-50366-4
- Doctorow, C. (2023). Google’s chatbot panic (16 Feb 2023). Pluralistic: Daily links from Cory Doctorow. Retrieved from https://pluralistic.net/2023/02/16/tweedledumber/.
- Eisikovits, N. & Stubbs, A. (2023). ChatGPT, DALL-E 2 and the collapse of the creative process. The Conversation. Retrieved from http://theconversation.com/chatgpt-dall-e-2-and-the-collapse-of-the- creative-process-196461
- Eloundou, T., Manning, S., Mishkin, P. & Rock, D. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models. doi:10.48550/ARXIV.2303.10130. arXiv: 2303.10130
- Estermann, T., Bennetot Pruvot, E., Kupriyanova, V. & Stoyanova, H. (2020). The impact of the Covid-19 crisis on university funding in Europe. European University Association. Retrieved from https://eua.eu/resources/publications/927:the-impact-of-the-covid-19- crisis-on-university-funding-in-europe.html
- Flanagin, A., Bibbins-Domingo, K., Berkwits, M. & Christiansen, S. L. (2023). Nonhuman “Authors” and Implications for the Integrity of Scientific Publication and Medical Knowledge. JAMA 329(8), 637–639. doi:10.1001/jama.2023.1344
- From The Lab Bench (2023). reative Science Writing in the Age of ChatGPT. From The Lab Bench. Retrieved from http://www.fromthelabbench.com/from-the-lab-bench-science- blog/2023/1/29/creative-science-writing-in-the-age-of-chatgpt
- Gleason, N. (2022). ChatGPT and the rise of AI writers: how should higher education respond? THE — Times Higher Education. Retrieved from https://www.timeshighereducation.com/campus/chatgpt-and-rise-ai- writers-how-should-higher-education-respond
- Goedecke, C., Koester, V. & ChatGPT (2023). Chatting With ChatGPT. ChemViews. doi:10.1002/chemv.202200001
- Goldberg, J. (2023). Artificial Intelligence (AI) & Its Impact on the Sports Industry. Lexology. Retrieved from https://www.lexology.com/library/detail.aspx?g=404ee360-cdc8-4772-900c- eecdca6874b9
- Gravel, J., D’Amours-Gravel, M. & Osmanlliu, E. (n.d.). Learning to fake it: limited responses and fabricated references provided by ChatGPT for medical questions. medRxiv. doi:10.1101/2023.03.16.23286914
- Greussing, E., Taddicken, M. & Baram-Tsabari, A. (2022). Changing Epistemic Roles through Communicative AI. In ICA Science of Science Communication Preconference, 26th–30th May 2022. Paris, France.
- Guzman, A. L. (Ed.) (2018). Human-Machine Communication. New York, U.S.A.: Peter Lang. Retrieved from https://www.peterlang.com/document/1055458
- Guzman, A. L. & Lewis, S. C. (2019). Artificial intelligence and communication: A Human–Machine Communication research agenda. New Media & Society 22(1), 70–86. doi:10.1177/1461444819858691
- Hargittai, E. & Hsieh, Y. P. (2013). Digital Inequality. In W. H. Dutton (Ed.), The Oxford Handbook of Internet Studies (pp. 129–150). doi:10.1093/oxfordhb/9780199589074.013.0007
- Haven, J. (2022). ChatGPT and the future of trust. Nieman Lab. Retrieved from https://www.niemanlab.org/2022/12/chatgpt-and-the-future-of-trust/
- Heaven, W. D. (2022). Why Meta’s latest large language model survived only three days online. MIT Technology Review. Retrieved from https://www.technologyreview.com/2022/11/18/1063487/meta-large-language-model-ai-only-survived-three-days-gpt-3-science/
- Hegelbach, S. (2023). ChatGPT opened our eyes. DIZH. Retrieved from https://dizh.ch/en/2023/03/20/chatgpt-opened-our-eyes/
- Hoes, E., Altay, S. & Bermeo, J. (2023). Using ChatGPT to Fight Misinformation: ChatGPT Nails 72% of 12,000 Verified Claims. PsyArXiv. doi:10.31234/osf.io/qnjkf
- iTechnoLabs (2023). How is ChatGPT Explaining Scientific Concepts? iTechnoLabs. Retrieved from https://itechnolabs.ca/how-is-chatgpt-explaining-scientific-concepts/
- Johnson, A. (2022). Here’s What To Know About OpenAI’s ChatGPT — What It’s Disrupting And How To Use It. Forbes. Retrieved from https://www.forbes.com/sites/ariannajohnson/2022/12/07/heres-what-to- know-about-openais-chatgpt-what-its-disrupting-and-how-to-use-it/
- King, M. (2023). ChatGPT 4 Jailbreak — Step-By-Step Guide with Prompts: MultiLayering technique. Medium. Retrieved from https://medium.com/@neonforge/chatgpt-4-jailbreak-step-by-step-guide- with-prompts-multilayering-technique-ac03d5dd2304
- Knight, W. & Dave, P. (2023). In Sudden Alarm, Tech Doyens Call for a Pause on ChatGPT. WIRED. Retrieved from https://www.wired.com/story/chatgpt-pause-ai-experiments-open-letter/
- Koch, M.-C. & Hahn, S. (2023). Visual ChatGPT: Microsoft ergänzt ChatGPT um visuelle KI-Fähigkeiten mit Bildern. Heise. Retrieved from https://www.heise.de/news/Visual-ChatGPT-Microsoft-ergaenzt- ChatGPT-um-visuelle-KI-Faehigkeiten-mit-Bildern-8968047.html
- Kordzadeh, N. & Ghasemaghaei, M. (2021). Algorithmic bias: review, synthesis, and future research directions. European Journal of Information Systems 31(3), 388–409. doi:10.1080/0960085x.2021.1927212
- Lermann Henestrosa, A. & Kimmerle, J. (2022). The Effects of Assumed Authorship on the Perception of Automated Science Journalism. In ICA Science of Science Communication Preconference, 26th–30th May 2022. Paris, France.
- Manders-Huits, N. (2011). What Values in Design? The Challenge of Incorporating Moral Values into Design. Science and Engineering Ethics 17(2), 271–287. doi:10.1007/s11948-010-9198-2
- Mede, N. G. & Schäfer, M. S. (2020). Science-related populism: Conceptualizing populist demands toward science. Public Understanding of Science 29(5), 473–491. doi:10.1177/0963662520924259
- Mollick, E. (2023a). Bing AI for seminar preparation. Twitter. [@emollick]. Retrieved from https://twitter.com/emollick/status/1630683712739332097
- Mollick, E. (2023b). One interesting way to see how much more powerful GPT-4 is than GPT-3.5. Twitter. [@emollick]. Retrieved from https://twitter.com/emollick/status/1642532388570910725
- Mollick, E. (2023c). Some lessons of the insane past 4 days of generative AI. Twitter. [@emollick]. Retrieved from https://twitter.com/emollick/status/1627161768966463488
- Mollick, E. (2023d). The Machines of Mastery [Substack newsletter]. One Useful Thing. Retrieved from https://oneusefulthing.substack.com/p/the-machines-of-mastery
- Mu, K. (2023). Generative AI Companies with >5MM raised (as of March 2023). LinkedIn. Retrieved from https://www.linkedin.com/feed/update/urn:li:activity:7043395787585712128
- Murgia, M. (2023). Risk of ‘industrial capture’ looms over AI revolution. Financial Times. Retrieved from https://www.ft.com/content/e9ebfb8d-428d-4802-8b27-a69314c421ce
- Myklebust, J. P. (2023). Universities adjust to ChatGPT, but the ‘real AI’ lies ahead. University World News. Retrieved from https://www.universityworldnews.com/post.php?story=20230301105802395
- Nash, B. (2023). With the help of ChatGPT 4 I’m coding a new side scroller game for the browser. Twitter. [@bennash]. Retrieved from https://twitter.com/bennash/status/1640226129729536000
- Neff, G. & Nagy, P. (2016). Automation, Algorithms, and Politics| Talking to Bots: Symbiotic Agency and the Case of Tay. International Journal of Communication 10, 4915–4931. Retrieved from https://ijoc.org/index.php/ijoc/article/view/6277
- Nerlich, B. (2023). Artificial Intelligence: Education and entertainment. Making Science Public. Retrieved from https://blogs.nottingham.ac.uk/makingsciencepublic/2023/01/06/artificial- intelligence-education-and-entertainment/
- Nicolaou, A. (2023). Streaming services urged to clamp down on AI-generated musi. Financial Times. Retrieved from https://www.ft.com/content/aec1679b-5a34-4dad-9fc9-f4d8cdd124b9
- Pavlik, J. V. (2023). Collaborating With ChatGPT: Considering the Implications of Generative Artificial Intelligence for Journalism and Media Education. Journalism & Mass Communication Educator 78(1), 84–93. doi:10.1177/10776958221149577
- Peng, S., Kalliamvakou, E., Cihon, P. & Demirer, M. (2023). The Impact of AI on Developer Productivity: Evidence from GitHub Copilot. doi:10.48550/ARXIV.2302.06590. arXiv: 2302.06590
- Rahwan, I., Cebrian, M., Obradovich, N., Bongard, J., Bonnefon, J.-F., Breazeal, C.,. . . Wellman, M. (2019). Machine behaviour. Nature 568(7753), 477–486. doi:10.1038/s41586-019-1138-y
- Richter, V., Katzenbach, C. & Schäfer, M. S. (2023). Imaginaries of Artificial Intelligence. In S. Lindgren (Ed.), Handbook of Critical Studies of Artificial Intelligence. Edward Elgar Publishing. Retrieved from https://www.e-elgar.com/shop/gbp/handbook-of-critical-studies-of- artificial-intelligence-9781803928555.html
- Rutjens, B. T., Heine, S. J., Sutton, R. M. & van Harreveld, F. (2018). Attitudes Towards Science. Advances in Experimental Social Psychology, 125–165. doi:10.1016/bs.aesp.2017.08.001
- Sarraju, A., Bruemmer, D., Iterson, E. V., Cho, L., Rodriguez, F. & Laffin, L. (2023). Appropriateness of Cardiovascular Disease Prevention Recommendations Obtained From a Popular Online Chat-Based Artificial Intelligence Model. JAMA 329(10), 842–844. doi:10.1001/jama.2023.1044
- Satariano, A. (2023). ChatGPT Is Banned in Italy Over Privacy Concerns. The New York Time. Retrieved from https://www.nytimes.com/2023/03/31/technology/chatgpt-italy-ban.html
- Schäfer, M. S. (2017). How Changing Media Structures Are Affecting Science News Coverage. In K. H. Jamieson, D. M. Kahan & D. A. Scheufele (Eds.), The Oxford Handbook of the Science of Science Communication (pp. 50–59). doi:10.1093/oxfordhb/9780190497620.013.5
- Schäfer, M. S., Kristiansen, S. & Bonfadelli, H. (2015). Wissenschaftskommunikation im Wandel. Herbert von Halem Verlag.
- Schäfer, M. S. & Metag, J. (2021). Routledge handbook of public communication of science and technology. In M. Bucchi & B. Trench (Eds.), Routledge handbook of public communication of science and technology (3rd ed., pp. 291–304). New York, NY, U.S.A.: Routledge.
- Schäfer, M. S. & Wessler, H. (2020). Öffentliche Kommunikation in Zeiten künstlicher Intelligenz. Publizistik 65 (3), 307–331.
- Seaver, N. (2019). Knowing Algorithms. In J. Vertesi & D. Ribes (Eds.), digitalSTS (pp. 412–422). doi:10.1515/9780691190600-028
- Shabanov, I. (2023). There is a new AI search engine ideal for researchers: Perplexity. Twitter. Retrieved from https://twitter.com/Artifexx/status/1645303838595858432?s=20
- Stokel-Walker, C. & Van Noorden, R. (2023). What ChatGPT and generative AI mean for science. Nature 614(7947), 214–216. doi:10.1038/d41586-023-00340-6
synthesia (2023). GPT-3 Video Generator | Create Videos in 5 Minutes. synthesia. Retrieved from https://www.synthesia.io/tools/gpt-3-video-generator
- Thorp, H. H. (2023). ChatGPT is fun, but not an author. Science 379(6630), 313–313. doi:10.1126/science.adg7879
- Ulken, E. (2022). Generative AI brings wrongness at scale. Nieman Lab. Retrieved from https://www.niemanlab.org/2022/12/generative-ai-brings- wrongness-at-scale/
- Wardle, C. (2018). The Need for Smarter Definitions and Practical, Timely Empirical Research on Information Disorder. Digital Journalism 6(8), 951–963. doi:10.1080/21670811.2018.1502047
- Wesche, J. (2023). Dr. Julius Wesche auf LinkedIn: #chatgpt #openai. LinkedIn. Retrieved from https://www.linkedin.com/posts/juliuswesche_chatgpt- openai-activity-7016341359661879296-ROCy
نویسنده
دکتر مایک س. شفر، استاد تمام ارتباطات علمی، رئیس دانشکده ارتباطات و تحقیقات رسانه IKMZو مدیر مرکز تحصیلات تکمیلی و مطالعات علمی CHESS در دانشگاه زوریخ است.
نحوه استناد
Schäfer, M. S. (2023). ‘The Notorious GPT: science communication in the age of artificial intelligence’. JCOM 22 (02), Y02. https://doi.org/10.22323/2.22020402.