جی‌پی‌تی بدنام: ارتباطات علمی در عصر هوش مصنوعی

مایک س. شفر

چکیده:

چت جی‌پی‌تی بر اساس تکنیکهای یادگیری ماشینی تحت نظارت‌ و تقویت شده ، برای کاربر پاسخهای انسان‌گونه و بدیع فراهم می‌کند. چت جی‌پی‌تی تبدیل به نماینده هوش مصنوعی مولد شده است، و به عنوان مخل بسیاری از جوانب زندگی، از جمله ارتباطات علمی، شناخته شده است. این مقاله به بررسی پیدایش این تکنولوژی و فرصتهای ایجاد شده برای ارتباطات علمی مثل قابلیت تطبیق‌پذیری و چند‌ وجهی بودن هوش مصنوعی و قابلیت آن در ایجاد گفتگوی علمی در مقیاس بزرگ، و همچنین مشکلاتی که در زمینه صحت، اشتباه در مقیاس بزرگتر و مفهوم بازار کارایجاد می‌کند، می‌پردازد. این مقاله به سنجش پیامدهای آن بر تحقیقات روی ارتباطات علمی نیز می‌پردازد که به صورت گسترده تا به امروزهوش مصنوعی (مولد) را نادیده گرفته است. این مقاله به بحث در مورد اینکه دانشمندان باید ارتباطات عمومی درباره هوش مصنوعی و با هوش مصنوعی را با توجه به فراگیری روزافزون آن بررسی کنند. به علاوه، دانشمندان باید تاثیرات هوش مصنوعی را بر خود ارتباطات علمی و همچنین اکوسیستم بزرگتر ارتباطات علمی مورد بررسی قرار دهند.

کلید واژه‌ها:

ارتباطات علمی: تئوری و مدل‌ها؛ هوش مصنوعی، هوش مصنوعی مولد

 

ظهور چت جی‌پی‌تی و هوش مصنوعی مولد

تازگی و بدیع بودن چت جی‌پی‌تی به سرعت و به طور چشمگیری اثبات شده است، و احتیاجی به معرفی من ندارد اما خودش می‌تواند این کار را انجام دهد: ” من یک مدل زبانی بزرگ LLM هستم که از OpenAI آموزش دیده‌ام و طراحی شده‌ام که به سوالات پاسخ دهم، اطلاعات فراهم کنم، و درباره موضوعات متفاوت وارد گفتگو شوم. (چت جی‌پی‌تی براساس GPT-3 فوریه ۲۶،۲۰۲۳، ورودی: ” می‌توانی لطفا خودت را در دو جمله معرفی کنی؟”). جی‌پی‌تی پایه (که مخفف “ترانسفورماتور مولد ازپیش‌آموزش دیده” در انگلیسی است) یک LLM خودرگرسیون می‌باشد که به همراه قابلیت گفتگوی چت جی‌پی‌تی، پاسخ‌های جدید و انسان‌گونه به کاربرمی‌دهد. این پاسخ‌ها بر اساس روشهای یادگیری تحت نظارت و تقویتی است که شامل داده‌های گسترده‌ی یادگیری دیجیتال و همچنین ارزشیابی پاسخ‌ها و بازخوردهای انسانی است. بعد از راه‌اندازی عمومی چت جی‌پی‌تی در ۳۰ نوامبر ۲۰۲۲، اولین نسخه این چت‌بات (مدل جی‌پی‌تی-۳) در کمتر از یک هفته به یک میلیون کاربر و تا ژانویه ۲۰۲۳ به ۱۰۰ میلیون کاربر رسید، احتمالا از سریعترین همه گیری های تکنولوژی‌ در تاریخ.

چت جی‌پی‌تی از ابتدا نماد یک پیشرفت وسیع تر بوده است: ظهور هوش مصنوعی مولد که بر اساس داده‌هایی که با آن اموزش دیده‌است خروجی منحصر به فرد تولید می‌کند. هوش مصنوعی مولد می‌تواند متن ترجمه کند (مانند  (DeepLتصویر تولید کند (مانند  DALL.E, Midjourneyو Stable Diffusion ) تقلید صدا انجام دهد )مثل  VALL-E) و یا مثل چت جی‌پی‌تی و رقابیش از جمله  BARD, Anthropic Claude, AI Sydney و سایرینی که تا زمان انتشار این مقاله به وجود خواهند آمد، پاسخ‌های متنی تولید کنند. (برای نگاهی اجمالی به کمپانی‌های هوش مصنوعی مولد به مقاله  Mu [2023] مراجعه کنید)45.

این ابزارها در ماه‌های اخیر تعدد بسیار پیدا کرده‌اند و باور عمومی بر این است که تاثیرات اساسی بر عرصه‌های مختلف زندگی میگذارند و حتی آنها را مختل می‌کنند.33 اعم از اقصاد،16 برنامه‌نویسی،53 روزنامه‌نگاری،52 هنر،15 موسیقی،51 ورزش22 و سایر رشته‌ها.

هوش مصنوعی مولد علم و دانشگاه را هم به طور اساسی تحت تاثیر قرار می‌دهد. از طرفی احتمالا همه جنبه‌های تحقیقات، از شناسایی شکاف‌های تحقیقاتی و فرضیه سازی برپایه بررسی مقالات برای جمع‌آوری داده، حاشیه‌نگاری و کدنویسی، و در نهایت تا خلاصه کردن یافته‌ها، نگارش و ارائه بصری آنها اثرگذار خواهد بود.65 چکیده‌های علمی و مقالات با کمک ابزارهای هوش مصنوعی به عنوان نویسنده مشترک پیش از این هم تولید شده‌ بودند که وضعیت اینها در انجمن‌های علمی مورد بحث قرار می‌گیرد.18 نگرانی‌ها در مورد افزایش تصاعدی مشکل چالش‌برانگیز منتشر کردن یا نکردن مقالات علمی مبتنی برهوش مصنوعی همراه با ترس از افزایش تقلب و سخت‌تر شدن تشخیص آن افزایش یافته است.12,67 

از طرفی دیگر هوش مصنوعی مولد بر آموزش هم تاثیر گذار خواهد بود. هوش مصنوعی قابلیت تولید سرفصلهای درسی برای کلاسها و برنامه‌های مطالعاتی دارد و می‌تواند سوالات امتحانی و ارزشیابی معلمان را طراحی کند.20 می‌تواند به عنوان دستیار دانش‌آموزان برای بهبود آموزش گفتگو محور، ساختاربندی نوشته‌هایشان و خلاصه کردن مقالات علمی ایفای تقش کند.44 به علاوه  این هوش مصنوعی نشان داده‌است که قابلیت قبول شدن در امتحانات و احتمالا توانایی نوشتن تکالیف و یا پایان‌نامه را دارد که این امر باعث ایجاد رقابت با شناساگرهای سرقت ادبی شده است و موسسات تحصیلات تکمیلی و آموزش عالی را وادار به تاملی دوباره در باب آموزش انواع مهارتهای مرتبط کرده‌است.3,11 

هوش مصنوعی مولد و ارتباطات علمی 

هوش مصنوعی مولد به غیر از تحقیق و آموزش – دو ماموریت اساسی جهان علم – بر روی ارتباطات علمی که سومین ماموریت هست هم اثر گذار است. ارتباطات علمی، در مفهوم کلی، مجموعه‌ای از فعالیتها شامل ارتباط شخص دانشمندان، ارتباط (معمولا استراتژیک) سازمانهای علمی مانند بخش ارتباط عمومی و بازاریابی و روزنامه‌نگاری علمی و یا سایر اشکال ارتباطاعات علم محور با عموم مردم است.13,60 متخصصین در این حرفه اهداف و مدلهای متفاوتی را دنبال می‌کنند که در این بین، “درک عمومی از علم” و مدلهای گفتگو محور احتمالا برجسته‌ترین ها هستند.1,9

اگر از خود چت جی‌پی‌تی پرسیده شود میگوید که بر روی جنبه‌های مختلف این رشته با “فراهم آوردن منابع اطلاعاتی قابل اعتماد و در دسترس در طیف وسیعی از موضوعات علمی”  تاثیر به‌سزایی” خواهد داشت و به “افزایش فهم عمومی از کشفیات و مفاهیم علمی” با حذف ” کج‌فهمی های متداول و اطلاعات غلط علمی از طریق فراهم کردن منابع و اطلاعات دقیق” و همچنین ایجاد “گفتگو میان دانشمندان و عموم مردم از طریق ساختن بستری برای طرح پرسش و پرداختن به موضوعات علمی” کمک میکند. (تصویر ۱)

متخصصین و دانشمندان حوزه ارتباطات علمی، به تاثیر هوش مصنوعی مولد بر کاربرد ارتباطات علمی پرداخته‌اند، و به نظر می‌رسد که اتفاق نظر بر تاثیر به سزای آن در آینده دارند. همانطور که معمولا در مورد تکنولوژی‌های جدید اتفاق می افتد، با وجود ناداسته‌ها و عدم قطعیت‌های بسیار، میزان خوشبینی و بدبینی در این بحث، در بازه‌ی مثبت تا افتضاح، بسیار زیاد است.

افراد خوشبین روی طیف وسیعی از کاربردهای ممکن برای هوش مصنوعی مولد تاکید میکنند. آنها بر پتانسیل آن در اتوماسیون و ساده سازی روند تولید ایده‌های محتوا70 و بهبود مستمر توانایی ترجمه: قابلیت خلاصه سازی یافته ها و مقالات علمی23 و توضیح ساده‌ی موضوعات پیچیده تکیه می‌کنند.(تصویر ۱)30 این توانایی‌ها می‌تواند توسط نویسندگان علم برای نگارش مقالات خبری، پستهای رسانه‌های اجتماعی یا سایر رسانه‌ها، برای تولید شعار و یا سرتیتر کمپین‌های ارتباطی و یا ترجمه محتوای علمی برای مدخل‌های ویکیپدیا مورد استفاده قرار گیرد. استفاده موسسات آموزشی و علمی از هوش مصنوعی مولد در ارتباطات و اطلاع‌رسانی47 و رسانه و مقالات بلاگ‌ها نشان می‌دهد که چگونه متخصصان شروع به استفاده از هوش مصنوعی مولد برای تولید متن کرده‌اند.7

در حالی که چت جی‌پی‌تی در حال حاضر فقط به صورت نوشته متنی‌ پاسخ می‌دهد، به نظر می‌رسد که حرکت به سمت چند وجهی شدن از طریق چت جی‌پی‌تی بصری به زودی انجام می‌پذیرد.36 کاربران دانا در حال حاضر نشان داده‌اند که هوش مصنوعی مولد میتواند هنگامی که با ابزارهای مختلف ترکیب شود، پاسخ‌های چند وجهی همانند ایموجی‌ها، تصاویر و واینفوگرافی، زبان گفتاری و حتی ویدیو تولید کند. ( شکل ۱)66 هوش مصنوعی مولد حتی تولید بازی کرده است،48 که می‌تواند امکان بازی سازی هدفمند و مناسب ارتباطات علمی را حتی برای کاربران فاقد دانش حرفه‌ای برنامه‌نویسی فراهم کند.

سایرین بر کاربردی بودن هوش مصنوعی مولد از دیدگاه کاربر تکیه می‌کنند. بالاخره هوش مصنوعی میتواند برای کاربران علاقمند به موضوعات علمی پاسخی سریع به سوالات مشخص بدهد.32 این امکان را به کاربر می‌ دهد که پیچیدگی‌های زبانی و نامگذازی و در کل قابلیت درک مطالب را با توجه به نیازهای خودشان تنظیم کنند و سوالات تکراری و حتی به نظر ‘احمقانه’ بپرسند.2 همچنین این امکان را فراهم می‌کند که از مشخصه نوبتی بودن ابزاری مثل چت جی‌پی‌تی استفاده کنند و وارد یک گفتگوی واقعی شوند و در مورد جنبه‌های مختلف یک سوال که کاملا متوجه نشده‌اند پرسشگری کنند تا به پاسخی برسند که کاملا قانع کننده باشد.21 در نتیجه اصولا هوش مصنوعی مولد می‌تواند ارتباط علمی گفتگو محور در مقیاس بزرگ ایجاد کند و در این کار پتانسیل وسوسه‌انگیزی برای گسترش و حتی دموکراتیک کردن گفتگوهای علمی که تا به امروز معمولا محدود به گروه‌های کوچک و یا کاربرانی با پیش زمینه علمی بوده، وجود دارد.

تصویر ۱) بالا چپ: پاسخ چت جی‌پی‌تی (بر اساس چت‌جی‌پی‌تی-۳) در ۲۶ فوریه ۲۰۲۳ به ورودی ” چگونه چت‌جی‌پی‌تی بد ارتباطات علمی تاثیر می‌گذارد؟” _ پایین چپ: پاسخ هوش مصنوعی بینگ به درخواست شناسایی ضعف ها در مقالات علمی که داوران احتمالا متوجه آنها شوند، نمایش جملاتی که این ضعفها را نشان دهد و پیشنهاد چگونگی بهبود آنها41 _ راست: استفاده چت‌جی‌پی‌تی (بر اساس نسخه ۴) از ایموجی‌ها برای خلاصه کردن تئوری های اجتماعی42

پتانسیل هوش مصنوعی مولد درفعالیتهای مربوط به ارتباطات علمی در حال حاضرقابل ملاحظه است و بدون شک با ظهور ابزار جدید، کشف همه قابلیتهای آن توسط کاربران، و با ادغام ابزارهای مختلف (که هم اکنون هم با معرفی افزونه ها در چت‌جی‌پی‌تی آغاز شده)4 وسعت می‌یابد. به علاوه استفاده از ابزارهای موجود آسانتر می شود و به صورت طبیعی تری در محیط نرم افزارهای موجود مثل موتوهای جستجو و یا سیستم عامل‌ها ادغام می‌شوند (کاری که بینگ و یو دات کام در حال حاضر هم شروع کرده‌اند).

افراد بدبین از طرف دیگر تعدادی چالش نسبتا قابل توجه را شناسایی کرده‌اند. صحت پاسخها – میزان صحت پاسخهای چت ‌جی‌پی‌تی از دیدگاه علمی- اولین مورد آن است. این موضوع بلافاصله پس از همگانی شدن چت جی‌پی‌تی مورد بحث قرار گرفت زیرا گلکتیکا ال‌ال‌ام کمپانی متا که مشخصا برای متون علمی آموزش دیده بود فقط چند هفته قبل به دلیل مشکل صحت پاسخ ها شکست خورده بود.29 بر همین اساس، دائما از چت‌جی‌پی‌تی به عنوان “طوطی استوکاستیک”14,57 یاد می‌شود که فقط محتوای پاسخهایش را بر اساس داده‌هایی که با آنها آموزش دیده و بدون درکی عمیقتر تخمین می‌زند. این تخمین در مورد اعداد و ارجاعات هم صدق میکند که نهایتا معمولا اشتباه یا تخیلی شناخته می‌شوند و در نتیجه چت‌جی‌پی‌تی در زمینه‌ای که برای ارتباطات علمی حیاتی است، ضعفهایی نشان داده است. در همین راستا مطالعات اولیه نشان داده است که کیفیت پاسخهای چت جی‌پی‌تی از دیدگاه علمی معمولا محدود بوده23 اما پیشرفتهای چشمگیری در میان نسخه‌های متفاوت آن (از چت‌ جی‌پی‌تی-۳ به چت جی‌پی‌تی-۴ که موتور جستجوی مایکروسافت به نام بینگ از آن استفاده می‌کند) در حال حاضر به چشم می‌خورد. بسیاری از چیزها (مثل ادغام پیچیده منابع اطلاعاتی، یادگیری و پیشرفت با دستور جستجوی آنلاین و پیشنهادات خلاقانه مبتنی بر تحقیقات و غیره) که مدتها تصور بر این بود که هوش مصنوعی در آنها موفق نباشد، در حال حاضر امکان‌پذیر است.43 به علاوه ابزاراتی مانند Perplexity.AI سعی در ادغام جی‌پی‌تی با گوگلScholars دارند که بتوانند پاسخهایی با پایه علمی قوی‌تر تولید کنند64 و شاید حتی در نهایت به عنوان راستی آزما مورد استفاده قرار گیرند.31 متخصصان همچنان باید متوجه محدودیتهای هوش مصنوعی که ممکن است به دلیل محدود بودن داده‌های آموزشی ‌اش، اصول بنیادی کارکردش یا روشها و سبک خروجی‌اش باشد، باشند (برای مثال در مورد جی‌پی‌تی-۳ که به طرز معروفی در سال ۲۰۲۱ پایان گرفت و در مورد سایر ابزارهای یادگیری ماشینی اغلب سوگیری‌های آشکاری نشان داده‌اند.37

سایرین به دلیل توانایی ماشینهای یادگیری زبان در تولید بسیار سریع متن، نگران ایجاد یک اپیدمی اطلاعاتی مبتنی بر هوش مصنوعی هستند.2 هوش مصنوعی مولد ممکن است باعث ایجاد یک سیل اطلاعاتی و “آلوده کردن استخر دانشمان” شود50 که در آن کاربران ممکن است با مشکلاتی برای یافتن اطلاعات علمی قابل اتکا مواجه شوند، تناقضا حتی ابزارهای هوش مصنوعی هم ممکن است در آینده در این زمینه طلب کمک کنند. ممکن است که محتوای قابل اعتماد در دریای اطلاعات تقریبی و رسانه‌ای غرق شود28 و با اضافه شدن اطلاعات غلط و یا ضد اطلاعات به این دریای اطلاعاتی، این اثر تشدید می‌شود. خود هوش مصنوعی مولد میتواند باعث ایجاد چنین اطلاعات اشتباه یا ضد اطلاعات باشد. همانطور که تا به حال در تلاشها برای جیل برک کردن چت‌جی‌پی‌تی نشان داده شده است برخی کاربران راهی برای دور زدن محدودیت های داخلی آن خواهند یافت یابند.34 بر این اساس هوش مصنوعی مولد میتواند اشتباه در مقیاس بزرگ تولید کند چون میتواند سریعتر و بیشتر مرتکب اشتباه شود – با اطمینان ظاهری بیشتر و شفافیت کمتر- نسبت به هر ابداعی که به یاد داریم.68 پتانسیل در همگرایی ساخت دانش، علم تقلبی و رقیق شدن دانش50 در اکوسیستم ارتباطات مشخصا مشکل ساز خواهد بود زیرا که جهت‌گیری‌های خصومت‌آمیز علیه علم  در حال حاضر برجسته هستند و اهمیت زیادی پیدا کرده است.40,56

مضاف بر این، هوش مصنوعی مولد نگرانی زیادی در مورد امنیت شغلی در بخشهای مختلف ایجاد کرده است. مطالعات اولیه نشان دهنده این است که ابزارهای هوش مصنوعی میتوانند در حدود ۱۵% از وظیفه کارگران در آمریکا را به طرز قابل توجهی سریعتر و با حفظ همان کیفیت انجام دهند و هنگامی که ماشینهای یادگیری زبان(LLMs) به انضمام نرم افزارها و ابزارها شوند این سهم بین ۴۷% تا ۵۶% افزایش می‌یابد.16 پتانسیل تحویل کارهای نوشتنی، مجسم کردن یا حتی برنامه‌نویسی به هوش مصنوعی مولد، به همراه مشکلات مالی موسسات علمی و تحصیلات تکمیلی در بعضی کشورها17 و همچنین بحران اقتصادی روزنامه‌نگاری علمی در بسیاری از کشورها،59 می‌تواند مسبب چالشهای قابل توجهی برای کارشناسان ارتباطات علمی، باشد.

هوش مصنوعی مولد و تحقیقات بر ارتباطات علمی

با توجه به اینکه رشته ما ارتباطات درباره علم را مورد تحقیق قرار می‌دهد، هوش مصنوعی به عنوان یک تکنولوژی کلیدی و بخش مهمی از توسعه علمی بسیار کم مورد تحقیق قرار گرفته است. یک جستجوی ساده بانک اطلاعاتی چنین نشان می‌دهد که: وقتی که بانک اطلاعاتی اسکوپوس را برای مقالات علمی که هم “ارتباطات علمی” و هم ” هوش مصنوعی” را به کار برده باشند، مورد جستجو قرار می‌دهیم (در حالی که حتی جستجو را به هوش مصنوعی مولد محدود نکنیم) فقط تعداد انگشت‌شماری مقاله یافت میشود که آنها هم تقریبا منحصرا مربوط به چند سال اخیر هستند. (شکل ۲) وقتی کل بانک اطلاعاتی را و یا چه علوم انسانی و یا اجتماعی را مورد جستجو قرار دهیم، حالت مشابهی مشاهده می‌شود. همچنین همین وضعیت وقتی که جستجوی مشابهی را در سه مجله تاثیرگذار در زمینه ارتباطات علمی (JCOM, Public Understanding of Science, Science communication ( انجام ‌دهیم مشاهده می‌شود. در تحقیقات من در این مقاله بیشتر مشخص شد که: اگرچه بسیاری مقالات رسانه‌ای و پست‌های شبکه‌های اجتماعی و غیره تاثیر چت جی‌پی‌تی، هوش مصنوعی مولد و هوش مصنوعی را بر سایر رشته ها شامل نشریات علمی و به طور کلی فرآیندهای علمی مورد بحث قرار می‌دهند،اما مقالات مربوط به نقش آنها در ارتباطات علمی نسبتا کمیاب است.

با توجه به اهمیت هوش مصنوعی مولد، پتانسیل رشد و تاثیر آن بر این رشته تخصصی، ما به عنوان محققان ارتباطات علمی نیاز فوری به رفع موضوع زیر داریم : به یک اجبار تحقیقاتی برای بررسی پیوند میان هوش مصنوعی (مولد) و ارتباطات علمی داریم. چهار مسیر تحقیقاتی می‌تواند و باید دنبال شود:

اول اینکه دانشمندان باید ارتباطات عمومی درباره هوش مصنوعی را تحلیل کنند. هوش مصنوعی مولد و به طور کلی هوش مصنوعی موضوعات اساسی علمی و تکنولوژیکی هستند که به مباحث عمومی پرطرفدارهم تبدیل شده‌اند و در نتیجه یک موضوع طبیعی برای تحقیق در مورد ارتباطات علمی هستند. این تحقیق با هوش مصنوعی مانند هر موضوع دیگری در ارتباطاعات علمی رفتار خواهد کرد و نتیجتا طیف کاملی از خصوصیات تحلیلی ذیل را می‌تواند بر آن اعمال کند.

  • از جنبه تولیدی محققان باید به بررسی اینکه دانشمندان، موسسات علمی و تحصیلات تکمیلی، شرکتهای تکنولوژی محور، سهامداران، قانون‌گذاران، روزنامه‌نگاران، سازمان‌های غیر دولتی و سایرین چگونه در مورد هوش مصنوعی (مولد) ارتباط برقرار می‌کنند. چه دیدگاه‌ها، چهارچوب‌ها و تصوراتی را ترویج می‌کنند و از چه استراتژی‌ای برای برجسته کردن خودشان و در کدام عرصه عمومی استفاده می‌کنند. برخی دانشمندان در حال حاضر این کار را بدون تمرکز ویژه‌ای بر هوش مصنوعی مولد یا مربوط ساختن آن به ارتباطات علمی و با جهت‌گیری واضح به سمت شرکتهای ارتباطی در کشورهای انگلیسی زبان، انجام داده‌اند. (برای یک نگاه اجمالی به منابع 55 و رجوع کنید)
  • دانشمندان همچنین باید به تحلیل چگونگی ارتباطات عمومی در مورد هوش مصنوعی مولد در رسانه‌های قدیمی، رسانه‌های اجتماعی، تصاویر عمومی، حسابهای کاربری غیر واقعی و سایر بسترها بپردازند. فقط تعداد اندکی از محققان این کار را در مورد هوش مصنوعی به طور کلی انجام داده‌اند و درنتیجه کمبود تحلیل در مورد هوش مصنوعی مولد وجود دارد.6

شکل ۲: چپ: تعداد مقالاتی که سالانه در بانک اطلاعاتی اسکوپوس ترکیب “ارتباطات علمی” (طوسی) و همزمان “ارتباطات علمی” و “هوش مصنوعی” (قرمز) را در سرتیتر، کلیدواژه‌ها یا چکیده ذکر کرده اند. راست: تعداد مقالاتی که سالانه در سه مجله علمی که متمرکز بر ارتباطات علمی (طوسی)  و تعدادی از آن مقالات که “هوش مصنوعی” را در سرتیتر، کلیدواژه‌ها و یا چکیده ذکر کرده‌اند (قرمز).

*جستجوی اسکوپوس شامل انواع اسناد زیر بوده است: مقاله، فصل کتاب، سرمقاله، مقاله کنفرانس، کتاب، مقاله کوتاه و یادداشت. اولین جستجو شامل کل بانک اطلاعاتی و دومی فقط در مورد “علوم اجتماعی”، “روانشناسی” ، “هنر و علوم انسانی”، “کسب وکار، مدیریت و حسابداری” و”اقتصاد، اقتصاد سنجی و علم دارایی”، و سومین جستجو فقط شامل موضوع “علوم اجتماعی” بوده است. جستجو در فوریه ۲۰۲۳ انجام گرفته‌است.

 

  • علاوه بر این، دانشمندان باید چگونگی استفاده و منطقی کردن محتوای مربوط به هوش مصنوعی (مولد) توسط افراد غیر متخصص، افراد ذینفع و قانونگذاران را مورد تحلیل قرار دهند: آنها اطلاعات مربوط به هوش مصنوعی را از کجا بدست می‌آورند، از چه منابعی استفاده می‌کنند، چگونه آنها را ارزشیابی می‌کنند و اینها چه تاثیری بر دانش یا نگرش و نحوه استفاده آنها ازهوش مصنوعی (مولد) دارد؟61   

اما، دوما، هوش مصنوعی مولد نسبت به سایر موضوعات تحقیقات ارتباطات علمی از لحاظ اینکه خود این تکنولوژی مسئولیت پذیری افزایش یافته در قالب هوش مصنوعی ارتباطی دارد، تفاوت دارد.26 بعضی دانشمندان حتی بر این باورند که جی‌پی‌تی-۴ شامل بارقه‌هایی از هوش مصنوعی عمومی است.8 در نتیجه، دانشمندان همچنین باید برهمکنش های کاربران با چت جی‌پی‌تی یعنی ارتباط با هوش مصنوعی را بررسی کنند.

  • برای انجام چنین کاری، از طرفی، دانشمندان باید بهتر درک کنند که هوش مصنوعی مولد چگونه کار می‌کند – که اگرچه غالبا چالش برانگیز است. اگر از چت جی‌پی‌تی به عنوان نمونه استفاده کنیم: اگرچه شرکت تولید کننده این چت بات، اوپن ای‌آی، چگونگی تولید و آموزش کلی آن را فاش کرده است اما اطلاعات خاص و جزئیات در مورد داده های آموزشی و الگوریتم های آن محرمانه است – این محرمانه بودن باعث ایجاد جعبه سیاه معمول می‌شود که جنبه‌های بسیاری از تکنولوژی های بسیار مهم درجامعه دیجیتالی و داده محور (از الگوریتم موتورهای جستجو روی سیستمهای توصیه گر تا جزئیات بازبینی محتوا) را مخفی می‌کند 63این جعبه سیاه به شدت مانع توانایی دانشمندان حوزه ارتباطات علمی (یا سایر حوزه‌ها) در قضاوت کردن در مورد هوش مصنوعی مولد، پتانسیل آن و همچنین پتانسیل جهت‌گیری آن می‌شود. اگرچه روشهایی مانند مهندسی معکوس (که سعی در درک کردن یک فرآیند یا مدل از طریق تحلیل سیستماتیک داده‌های ورودی و خروجی به یک جعبه سیاه میکند) محدود هستند اما نیازی فوری به آنها به دلیل عدم وجود جایگزین بهتر وجود دارد.
  • از طرفی دیگردانشمندان باید هوش مصنوعی مولد را به عنوان یک نماینده یا مامور ارتباطات علمی مورد تحلیل قرار دهند. چگونگی تعامل مردم با هوش مصنوعی مولد، چگونگی پاسخ آن و نتیجه این تعامل بر هر دو طرف از سوالات تحقیقاتی جالب در آینده نزدیک خواهد بود.38 برای مثال اولین مطالعه این چنینی که توسط چن، شائو، بوراپاچیپ و لی (۲۰۲۲)10 انجام شد، حدود ۲۰،۰۰۰ دیالوگ جی‌چی‌تی-۳ و ۳۲۹۰ نفر در مورد تغییرات آب‌و‌هوایی و جنبش “جان انسانهای سیاه‌پوست اهمیت دارد” را مورد تحلیل قرار داد. این نتیجه حاصل شد که در میان سایر چیزها، چت‌بات به گروهی که تکذیب کننده تغییرات آب و هوایی هستند جوابهای متفاوتی نسبت به سایر گروه‌ها داد، نه تنها به آنها لینکهای خارجی و نتیجه تحقیقات بیشتری نشان داد بلکه زبان احساسی و لحن منفی‌تری در قبال آنها به کار برد. بازسازی این تعاملات ، دلایلشان و همچنین تاثیرات آن بر کاربر انسان و ابزارهای هوش مصنوعی مولد بسیار حائز اهمیت است.49

سومین شاخه تحقیقات باید تاثیرات هوش مصنوعی مولد را بر ارتباطات علمی و بنیان آن مورد موشکافی قرار دهد. این بخش هم حداقل دو جنبه دارد:

  • از طرفی دانشمندان باید چگونگی تاثیرات هوش مصنوعی مولد را بر روی طیف کاملی از موضوعات علمی تحلیل و بررسی کنند. با توجه به اینکه مدلهای یادگیری زبان خودرگرسیون به داده‌های آموزشی خود اتکا میکنند و ویژگی‌های این داده‌های آموزشی روی چگونگی کارکرد مدل های یادگیری زبان تاثیر می‌گذارد اما این داده‌های آموزشی ممکن است برای رشته‌های مختلف به میزان یکسانی طبقه بندی‌شده و در دسترس نباشند، به همین دلیل آگاهی از تمایل رشته‌های مختلف برای استفاده از هوش مصنوعی مولد در ارتباطاتشان جالب خواهد بود. آیا تفاوتی بین رشته‌های علوم پایه و علوم رفتاری و اجتماعی یا برای مثال هنر وجود دارد؟ آیا رشته‌هایی که دارای گزارشات شفاف و به روز و جدید (که به صورت عمومی قابل دسترس هست) نسبت به سایرین مزیت دارند؟ مثل علوم اقلیمی با گزارشات ارزشیابی منظم از هیئت بین دولتی تغییرات آب و هوایی. آیا حوزه‌های پژوهشی بزرگ و اصلی با موضوعات کوچک و متمرکز تفاوت دارد (مخصوصا اینکه داده های آموزشی جی‌پی‌تی-۳ در هنگام نشرش به طور کامل به روز نبود) آیا حوزه‌های قدیمی‌تر از موضوعات جدید متفاوت‌اند؟ 
  • از طرف دیگر دانشمندان باید بررسی کنند که آیا و چگونه هوش مصنوعی مولد تاثیر بر اکوسیستم وسیعتر ارتباطات علمی میگذارد و یا  تغییر باالقوه‌ای در آن ایجاد خواهد کرد. این کارشامل تحلیل این موضوع است که آیا جنبه‌های مثبت و منفی فودق‌الذکر حقیقت دارد: میزان فراگیری این تکنولوژی برای تکمیل و کمک به ارتباطات علمی چه میزان خواهد بود، آیا در همه روش‌ها استفاده می‌شود، و تا چه میزان میتواند مکالمات علمی را دموکراتیک کند؟ و در مقابل محتوای تولید شده توسط هوش مصنوعی مولد چه میزان صحت دارد، حاوی چه میزان اطلاعات غلط است و آیا واقعا “اشتباه در مقیاس بالا” تولید میکند؟ همچنین شامل سوالاتی درباره جایگاه مکاتبه کننده‌ها و استعداد با‌القوه آنها مشود : آیا هوش مصنوعی مولد به مکاتب کوچک و کم تاثیرگذار این اجازه را می‌دهد که فاصله خودشان را با اشخاص صاحب نام  کم کنند چرا این ابرار برای همه فراهم است، یا اشحاص مکاتبه کننده ی صاحب قدرت قادر خواهند بود از آن برای تقویت بیشتر جایگاه خودشان استفاده کنند. همانند “شکاف دیجیتال”27 پیرامون ارتباطات آنلاین و شبکه‌های اجتماعی، احتمالا هوش مصنوعی مولد هم باعث ایجاد شکاف در میان کاربرانش می‌شود. احتمال به وجود آمدن شکاف درجه اول از لحاظ دسترسی به هوش مصنوعی به وجود می آید چرا که این تکنولوژی ممکن است یا بیش از اندازه گران باشد و یا کلا در دسترس بعضی کاربران نباشد. همچنین احتمال به وجود آمدن شکاف درجه دوم از لحاظ تفاوت سطح سواد و مهارت در استفاده از تکنولوژی وجود دارد یعنی بعضی کاربران ممکن است مهارت بیشتری در استفاده موثر از هوش مصنوعی به نسبت سایر کاربران داشته باشند. از انجاییکه ” چت جی‌پی‌تی برای ارزشمند بودن احتیاج به یک کاربر بسیارفهیم دارد” این یک شکاف قطعی است19 چرا که این توانایی به صورت مساوی در جمعیت تقسیم نشده است و نتیجتا منجر به بزرگ شدن شکاف بین گروهی که توانایی استفاده سودمند از هوش مصنوعی مولد را دارند و کسانی که این توانایی را ندارند می‌شود.

چهارم اینکه ظهور هوش مصنوعی مولد یک چالش تئورتیک و مفهومی است. به هر حال ” هوش مصنوعی و تعامل انسان با آن … در الگوی تئوری ارتباطات که برای مدتی طولانی بر تعملات انسان با انسان تمرکز داشته است، نمی‌گنجد.26 برای مثال تفاوت ذکر شده بین اطلاعات غلط و ضد اطلاعات معمولا بر اساس نیت شخص ارتباط برقرار کننده، مشخص می‌شود: بر این اساس اطلاعات غلط به عنوان اطلاعات اشتباه که سهوا مخابره شده، در حالی که ضد اطلاعات به عنوان اطلاعات اشتباهی که از روی عمد مخابره شده تعریف می‌شود.69 اما تشخیص تفاوت‌های اینچنینی وقتی پای هوش مصنوعی مولد در میان است دشوارتر می‌شود. در اینجا کارهای مفهومی و تئوری سازی در زمینه‌هایی همچون ارتباط ماشین انسان25 و رویکردهای سازنده اجتماعی مانند مطالعات تکنولوژی و علوم یا نظریه شبکه کنشگر، نیاز است. تحقیقات بر روی ارتباطات علمی  با در نظر گرفتن سابقه میان رشته‌ای آن باید کامل و دربرگیرنده باشد.24

درس بزرگتر و مسیر پیش رو

این مباحث بیانگر این است که هوش مصنوعی مولد، شامل چت‌ جی‌پی‌تی وحتی فراتر از آن، از اهمیت فوق‌العاده‌ای در در ارتباطات علمی و تحقیقات بر آن برخوردار است. اگرچه هنوز انشعابات کوتاه مدت هوش مصنوعی مولد برای ارتباطات علمی اکثرا نا مشخص است (چه رسد با انشعابات بلند و میان مدت) متخصصان و دانشمندان باید این تکنولوژی را جدی بگیرند، آنرا منتقدانه بسنجند، فرصتهای ایجاد شده توسط آن را غنیمت شمارند، و همچنین به رفع چالشهای آن بپردازند. 

همه این نکات ارجحیت بیشتری دارند چرا که هوش مصنوعی مولد، و کلا هوش مصنوعی، هنوز به یک مسآله مهم برای جامعه علمی تبدیل نشده‌ است. این موضوع باید و احتمالا تغییر خواهد کرد همانطوری که عموم تواناییش در تطبیق گرفتن به سرعت با مسائل به وجود آمده مانند پاندمی کرونا نشان داده است.

نکته کلی که میتوان از ظهور سریع هوش مصنوعی مولد آموخت این است که باید همگی به طور مداوم مراقب ابداعات اجتماعی-فنی که میتوانند ارتباطات (علمی) را تحت تاثیر قرار دهند باشیم.54,62 ظهور ارتباطات آنلاین و شبکه‌های اجتماعی، پیدایش تولید و توصیه الگوریتمی، رشد بسترهایی برای ویدیوهای کوتاه و تمایل به سمت پیام های آنی وغیره، ارتباطاعات علمی را به میزان قابل توجهی در سالهای اخیر دستخوش تغییر کرده است در حالی که پیشرفتهای جدید هم قطعا خواهند آمد. متخصصین و دانشمندان علاقمند به ارتباطات علمی (و همچنین سایر زمینه‌ها) باید پابه‌پای پیشرفتهای تکنولوژیکی حرکت کنند و تاثیرات آن را در زمینه کاری خودشان بازتاب دهند. 

دومین نکته‌ای که به یاد داشته باشیم این است که پیشرفتهای تکنولوژیکی ممکن است تحت تاثیر قرار گیرند. ساختار اجتماعی تکنولوژی5 و روشهای مربوط به آن نشان داده‌اند که نه تنها قابلیتها و ظرفیتهای تکنکلوژیکی بلکه عوامل اجتماعی، اجتماعی-فرهنگی و اجتماعی-سیاسی خط سیر تکنولوژی را تحت تاثیر قرار می‌دهند. اینکه چگونه از تکنولوژی هوش مصنوعی مولد استفاده می‌شود، توسط چه کسانی، چگونه و با چه گستردگی‌ای همگی نکات حائز اهمیتی در توسعه و تاثیر آن در اجتماع هستند. این موضوع میتواند تحت تاثیر هم قرار گیرد؛ یک نمونه تلاشهای عمدی برای شناسایی ارزشها و پتانسیل سوگیری هوش مصنوعی و استفاده از آن در جهت مثبت و سازنده است. تلاشهایی که مدارس مداخله جو از جمله “ارزش در طراحی”39 پیشنهاد کرده اند و احتمال بسیار زیاد دانشمندان و متخصصان ارتباطات جای خود را در این بین پیدا خواهند کرد. مثال دیگر اختلاف در مورد اصول هنجاری، اخلاقی و قانونی هوش مصنوعی مولد  است همانطور که فراخوان برای مهلت قانونی داوطلبانه35 در توسعه هوش مصنوعی و ممنوعیت چت جی‌پی‌تی در ایتالیا58 نشان میدهد. 

این تلاشها برای سنجش منتقدانه هوش مصنوعی مولد و محدود کردن مشکلاتش در حالی که از نیروی باالقوه آن استفاده می‌شود بسیار حائز اهمیت است. این حقیقت مخصوصا زمانی درست است که به نظر میرسد یک تکنولوژی هسته‌ای دیگر از جامعه هم عصر با سرعت زیادی به چند موسسه غربی میرسد،46 شرایطی مشابه اوایل ایجاد جوامع دیجیتال، و مبتنی بر داده و پلتفرم. این جوامل حالا به شدت تحت تاثیر هوش مصنوعی (مولد) قرار خواهند گرفت و ارتباطات علمی و تحقیقاتش باید نقش مهمی در این توسعه ایفا کنند.

 قدردانی

من از سابرینا اچ. کسلر برای نظرات سودمندش و ژنو کرایس و دامیانو لومباردی برای کمک به من در تهیه این مقاله تشکر می کنم.

منابع

 

  1. Akin, H. (2017). Overview of the Science of Science Communication. In K. H. Jamieson, D. M. Kahan & D. A. Scheufele (Eds.), The Oxford Handbook of the Science of Science Communication (pp. 25–33). doi:10.1093/oxfordhb/9780190497620.013.3
  2. Angelis, L. D., Baglivo, F., Arzilli, G., Privitera, G. P., Ferragina, P., Tozzi, A. E. & Rizzo, C. (2023). ChatGPT and the Rise of Large Language Models: The New AI-Driven  Infodemic Threat in Public Health. SSRN Electronic Journal. Paper N. 4352931. doi:10.2139/ssrn.4352931
  3. Barnett, S. (2023). ChatGPT Is Making Universities Rethink Plagiarism. Wired. Retrieved from https://www.wired.com/story/chatgpt-college-university-plagiarism/ 
  4. Barsee (2023). ChatGPT is going to be the new App Store. Twitter. [@heyBarsee]. Retrieved from https://twitter.com/heyBarsee/status/1640044406202826756
  5. Bijker,  W. E. (2009). Social  Construction of Technology. In J. K. Olsen, S. A. Pedersen & V. F. Hendricks (Eds.), A Companion to the Philosophy of Technology (pp. 88–94). doi:10.1002/9781444310795.ch15
  6. Brause, S. R., Zeng, J., Schäfer, M. S. & Katzenbach, C. (2023). Media Representations of Artificial Intelligence. In S. Lindgren (Ed.), Handbook of Critical Studies of Artificial Intelligence. Edward Elgar Publishing. Retrieved from https://www.e-elgar.com/shop/gbp/handbook-of-critical-studies-of- artificial-intelligence-9781803928555.html
  7. Broader Impacts Productions (2023). How to Use ChatGPT for Science Communication. Broader Impacts Productions. Retrieved from https://www.broaderimpacts.tv/chatgpt-science-communication/.
  8. Bubeck, S., Chandrasekaran, V., Eldan, R., Gehrke, J., Horvitz, E., Kamar, E., . . .Zhang, Y. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. doi:10.48550/ARXIV.2303.12712. arXiv: 2303.12712
  9. Bucchi, M. (2008). Of deficits, deviations and dialogues: theories of public communication of science. In M. Bucchi & B. Trench (Eds.), Handbook of public communication of science and technology (1st ed., pp. 57–76). London, U.K.: Routledge.
  10. Chen, K., Shao, A., Burapacheep, J. & Li, Y. (2022). How GPT-3 responds to different publics on climate change and Black  Lives Matter: A critical appraisal of equity in conversational AI.  doi:10.48550/ARXIV.2209.13627. arXiv: 2209.13627
  11. Choi, J. H., Hickman, K. E., Monahan, A. & Schwarcz, D. B. (2023). ChatGPT Goes to Law School.  SSRN Electronic Journal. Paper N. 4335905. doi:10.2139/ssrn.4335905
  12. Curtis, N. & ChatGPT (2023). To ChatGPT or not to ChatGPT? The Impact of Artificial Intelligence on Academic Publishing. Pediatric Infectious Disease Journal. 42(4), 275. doi:10.1097/inf.0000000000003852
  13. Davies, S. R. & Horst, M. (2016). Science Communication. doi:10.1057/978-1-137-50366-4
  14. Doctorow, C. (2023). Google’s chatbot panic (16 Feb 2023). Pluralistic: Daily links from Cory Doctorow. Retrieved from https://pluralistic.net/2023/02/16/tweedledumber/.
  15. Eisikovits, N. & Stubbs, A. (2023). ChatGPT, DALL-E 2 and the collapse of the creative process. The Conversation. Retrieved from http://theconversation.com/chatgpt-dall-e-2-and-the-collapse-of-the- creative-process-196461
  16. Eloundou, T., Manning, S., Mishkin, P. & Rock,  D. (2023). GPTs are GPTs: An  Early Look at the Labor Market  Impact  Potential  of Large Language Models. doi:10.48550/ARXIV.2303.10130. arXiv: 2303.10130
  17. Estermann, T., Bennetot Pruvot, E., Kupriyanova, V. & Stoyanova, H. (2020). The impact of the Covid-19 crisis on university funding in Europe. European University Association. Retrieved from https://eua.eu/resources/publications/927:the-impact-of-the-covid-19- crisis-on-university-funding-in-europe.html
  18. Flanagin, A., Bibbins-Domingo, K., Berkwits, M. & Christiansen, S. L. (2023). Nonhuman “Authors” and Implications for the Integrity of Scientific Publication and Medical Knowledge. JAMA 329(8), 637–639. doi:10.1001/jama.2023.1344
  19. From The Lab Bench (2023). reative Science Writing in the Age of ChatGPT. From The Lab Bench. Retrieved from http://www.fromthelabbench.com/from-the-lab-bench-science- blog/2023/1/29/creative-science-writing-in-the-age-of-chatgpt
  20. Gleason, N. (2022). ChatGPT and the rise of AI writers:  how should higher education respond?  THE — Times Higher Education. Retrieved from https://www.timeshighereducation.com/campus/chatgpt-and-rise-ai- writers-how-should-higher-education-respond
  21. Goedecke, C., Koester, V. & ChatGPT (2023). Chatting With ChatGPT. ChemViews. doi:10.1002/chemv.202200001
  22. Goldberg, J. (2023). Artificial Intelligence (AI) & Its Impact on the Sports Industry. Lexology. Retrieved from https://www.lexology.com/library/detail.aspx?g=404ee360-cdc8-4772-900c- eecdca6874b9
  23. Gravel, J., D’Amours-Gravel, M. & Osmanlliu, E. (n.d.). Learning to fake it: limited responses and fabricated references provided by ChatGPT for medical questions.  medRxiv. doi:10.1101/2023.03.16.23286914
  24. Greussing, E., Taddicken, M. & Baram-Tsabari, A. (2022). Changing Epistemic Roles through Communicative AI. In ICA Science of Science Communication Preconference, 26th–30th May 2022. Paris, France.
  25. Guzman, A. L. (Ed.)  (2018). Human-Machine Communication. New York, U.S.A.: Peter Lang. Retrieved from https://www.peterlang.com/document/1055458
  26. Guzman, A. L. & Lewis, S. C. (2019). Artificial intelligence and communication: A Human–Machine Communication research agenda. New Media & Society 22(1), 70–86. doi:10.1177/1461444819858691
  27. Hargittai, E. & Hsieh, Y. P. (2013). Digital Inequality. In W. H. Dutton (Ed.), The Oxford Handbook of Internet Studies (pp. 129–150). doi:10.1093/oxfordhb/9780199589074.013.0007
  28. Haven, J. (2022). ChatGPT and the future of trust. Nieman Lab. Retrieved from https://www.niemanlab.org/2022/12/chatgpt-and-the-future-of-trust/
  29. Heaven, W. D. (2022). Why Meta’s latest large language model survived only three days online. MIT Technology Review. Retrieved from https://www.technologyreview.com/2022/11/18/1063487/meta-large-language-model-ai-only-survived-three-days-gpt-3-science/ 
  30. Hegelbach, S. (2023). ChatGPT opened our eyes. DIZH. Retrieved from https://dizh.ch/en/2023/03/20/chatgpt-opened-our-eyes/
  31. Hoes, E., Altay, S. & Bermeo, J. (2023). Using ChatGPT to Fight Misinformation: ChatGPT Nails 72% of 12,000 Verified Claims. PsyArXiv. doi:10.31234/osf.io/qnjkf
  32. iTechnoLabs (2023). How is ChatGPT Explaining Scientific Concepts? iTechnoLabs. Retrieved from https://itechnolabs.ca/how-is-chatgpt-explaining-scientific-concepts/ 
  33. Johnson,  A. (2022). Here’s What To Know About OpenAI’s ChatGPT — What It’s Disrupting And How To Use It. Forbes. Retrieved from https://www.forbes.com/sites/ariannajohnson/2022/12/07/heres-what-to- know-about-openais-chatgpt-what-its-disrupting-and-how-to-use-it/
  34. King, M. (2023). ChatGPT 4 Jailbreak — Step-By-Step Guide with Prompts: MultiLayering technique.  Medium. Retrieved from https://medium.com/@neonforge/chatgpt-4-jailbreak-step-by-step-guide- with-prompts-multilayering-technique-ac03d5dd2304
  35. Knight, W. & Dave, P. (2023). In Sudden Alarm, Tech Doyens Call for a Pause on ChatGPT. WIRED. Retrieved from https://www.wired.com/story/chatgpt-pause-ai-experiments-open-letter/ 
  36. Koch,  M.-C.  & Hahn, S. (2023). Visual ChatGPT: Microsoft ergänzt ChatGPT um visuelle KI-Fähigkeiten mit Bildern. Heise. Retrieved from https://www.heise.de/news/Visual-ChatGPT-Microsoft-ergaenzt- ChatGPT-um-visuelle-KI-Faehigkeiten-mit-Bildern-8968047.html
  37. Kordzadeh, N. & Ghasemaghaei, M. (2021). Algorithmic bias: review,  synthesis, and future research directions. European Journal of Information Systems 31(3), 388–409. doi:10.1080/0960085x.2021.1927212
  38. Lermann Henestrosa, A. & Kimmerle, J. (2022). The Effects of Assumed Authorship on the Perception of Automated Science Journalism. In ICA Science of Science Communication Preconference, 26th–30th May 2022. Paris, France.
  39. Manders-Huits, N. (2011). What Values in Design? The Challenge of Incorporating Moral Values into Design. Science and Engineering Ethics 17(2), 271–287. doi:10.1007/s11948-010-9198-2
  40. Mede, N. G. & Schäfer, M. S. (2020). Science-related populism: Conceptualizing populist demands toward science. Public Understanding of Science 29(5), 473–491. doi:10.1177/0963662520924259
  41. Mollick, E. (2023a). Bing AI for seminar preparation. Twitter. [@emollick].  Retrieved from https://twitter.com/emollick/status/1630683712739332097
  42. Mollick, E. (2023b). One interesting way to see how much more powerful GPT-4 is than GPT-3.5. Twitter. [@emollick].  Retrieved from https://twitter.com/emollick/status/1642532388570910725
  43. Mollick, E. (2023c). Some lessons of the insane past 4 days of generative AI.  Twitter. [@emollick].  Retrieved from https://twitter.com/emollick/status/1627161768966463488
  44. Mollick, E. (2023d). The Machines of Mastery [Substack newsletter]. One Useful Thing. Retrieved from https://oneusefulthing.substack.com/p/the-machines-of-mastery
  45. Mu, K. (2023). Generative AI Companies with >5MM  raised (as of March 2023). LinkedIn. Retrieved from https://www.linkedin.com/feed/update/urn:li:activity:7043395787585712128
  46. Murgia, M. (2023). Risk of ‘industrial capture’ looms over AI revolution. Financial Times. Retrieved from https://www.ft.com/content/e9ebfb8d-428d-4802-8b27-a69314c421ce
  47. Myklebust, J. P. (2023). Universities adjust to ChatGPT, but the ‘real AI’ lies ahead. University World News. Retrieved from https://www.universityworldnews.com/post.php?story=20230301105802395
  48. Nash, B. (2023). With the help of ChatGPT 4 I’m coding a new side scroller game for the browser.  Twitter. [@bennash]. Retrieved from https://twitter.com/bennash/status/1640226129729536000
  49. Neff, G. & Nagy, P. (2016). Automation, Algorithms, and Politics| Talking to Bots: Symbiotic Agency and the Case of Tay.  International Journal of Communication 10, 4915–4931. Retrieved from https://ijoc.org/index.php/ijoc/article/view/6277
  50. Nerlich, B. (2023). Artificial Intelligence: Education and entertainment.  Making Science Public. Retrieved from https://blogs.nottingham.ac.uk/makingsciencepublic/2023/01/06/artificial- intelligence-education-and-entertainment/
  51. Nicolaou, A. (2023). Streaming services urged  to clamp  down  on AI-generated musi.  Financial Times. Retrieved from https://www.ft.com/content/aec1679b-5a34-4dad-9fc9-f4d8cdd124b9
  52. Pavlik, J. V. (2023). Collaborating With ChatGPT: Considering the Implications of Generative Artificial Intelligence for Journalism and Media Education. Journalism & Mass Communication Educator 78(1), 84–93. doi:10.1177/10776958221149577
  53. Peng, S., Kalliamvakou, E., Cihon, P. & Demirer, M. (2023). The Impact of AI on Developer Productivity: Evidence from GitHub Copilot. doi:10.48550/ARXIV.2302.06590. arXiv: 2302.06590
  54. Rahwan, I., Cebrian, M., Obradovich, N., Bongard, J., Bonnefon, J.-F., Breazeal, C.,. . . Wellman, M. (2019). Machine behaviour. Nature 568(7753), 477–486. doi:10.1038/s41586-019-1138-y
  55. Richter, V., Katzenbach, C. & Schäfer, M. S. (2023). Imaginaries of Artificial Intelligence. In S. Lindgren (Ed.), Handbook of Critical Studies of Artificial Intelligence. Edward Elgar Publishing. Retrieved from https://www.e-elgar.com/shop/gbp/handbook-of-critical-studies-of- artificial-intelligence-9781803928555.html
  56. Rutjens, B. T., Heine, S. J., Sutton, R. M. & van Harreveld, F. (2018). Attitudes Towards Science. Advances in Experimental Social Psychology, 125–165. doi:10.1016/bs.aesp.2017.08.001
  57. Sarraju, A., Bruemmer, D., Iterson, E. V., Cho,  L., Rodriguez, F. & Laffin, L. (2023). Appropriateness of Cardiovascular Disease Prevention Recommendations Obtained From a Popular Online Chat-Based Artificial Intelligence Model. JAMA 329(10), 842–844. doi:10.1001/jama.2023.1044
  58. Satariano, A. (2023). ChatGPT Is Banned in Italy Over  Privacy Concerns. The New York Time. Retrieved from https://www.nytimes.com/2023/03/31/technology/chatgpt-italy-ban.html
  59. Schäfer, M. S. (2017). How Changing Media Structures Are  Affecting Science News Coverage. In K. H. Jamieson, D. M. Kahan & D. A. Scheufele (Eds.), The Oxford Handbook of the Science of Science Communication (pp. 50–59). doi:10.1093/oxfordhb/9780190497620.013.5
  60. Schäfer, M. S., Kristiansen, S. & Bonfadelli, H. (2015). Wissenschaftskommunikation im Wandel. Herbert von Halem Verlag.
  61. Schäfer, M. S. & Metag, J. (2021). Routledge handbook of public communication of science and technology. In M. Bucchi & B. Trench (Eds.), Routledge handbook of public communication of science and technology (3rd ed., pp. 291–304). New York, NY, U.S.A.: Routledge.
  62. Schäfer, M. S. & Wessler, H. (2020). Öffentliche Kommunikation in Zeiten künstlicher Intelligenz. Publizistik 65 (3), 307–331.
  63. Seaver, N. (2019). Knowing Algorithms. In J. Vertesi & D. Ribes (Eds.), digitalSTS (pp. 412–422). doi:10.1515/9780691190600-028
  64. Shabanov, I. (2023). There is a new AI search engine ideal for researchers: Perplexity. Twitter. Retrieved from https://twitter.com/Artifexx/status/1645303838595858432?s=20
  65. Stokel-Walker, C. & Van Noorden, R. (2023). What ChatGPT and generative AI mean for science. Nature 614(7947), 214–216. doi:10.1038/d41586-023-00340-6 

synthesia (2023). GPT-3 Video Generator | Create Videos in 5 Minutes. synthesia. Retrieved from https://www.synthesia.io/tools/gpt-3-video-generator

  1. Thorp, H. H. (2023). ChatGPT is fun, but not an author. Science 379(6630), 313–313. doi:10.1126/science.adg7879
  2. Ulken, E. (2022). Generative AI brings wrongness at scale. Nieman Lab. Retrieved from https://www.niemanlab.org/2022/12/generative-ai-brings- wrongness-at-scale/
  3. Wardle, C. (2018). The Need for Smarter Definitions and Practical, Timely Empirical Research on Information Disorder. Digital Journalism 6(8), 951–963. doi:10.1080/21670811.2018.1502047
  4. Wesche, J. (2023). Dr. Julius Wesche auf LinkedIn: #chatgpt #openai. LinkedIn. Retrieved from https://www.linkedin.com/posts/juliuswesche_chatgpt- openai-activity-7016341359661879296-ROCy

 

نویسنده

دکتر مایک س. شفر، استاد تمام ارتباطات علمی، رئیس دانشکده ارتباطات و تحقیقات رسانه  IKMZو مدیر مرکز تحصیلات تکمیلی و مطالعات علمی CHESS در دانشگاه زوریخ است.

نحوه استناد

Schäfer, M. S. (2023). ‘The Notorious GPT: science communication in the age of artificial intelligence’. JCOM 22 (02), Y02. https://doi.org/10.22323/2.22020402.

به‌اشتراک بگذارید:

فهرست مطالب