logo-coalition-final-WT-transperant_Square_1000x1000

Потенциалът и ползите от използването на GAI чатботове в обучението по медийна грамотност

Тази статия разглежда видовете и използването на технологии, базирани на изкуствен интелект (ИИ) – големи езикови модели (LLM), които могат да имитират начина, по който говорим и пишем – от гледна точка на медийната грамотност.

ИИ е секси, ИИ е готин. […] ИИе нашето последно изобретение, ИИ е морално задължение. ИИ е най-често изричаната дума на десетилетието, ИИ е маркетингов жаргон от 1955 г. ИИ е човекоподобен, ИИ е извънземен. […] ИИ ще увеличи изобилието и ще даде възможност на човечеството да процъфтява максимално във Вселената. ИИ ще ни унищожи до крак.

Това са фрагменти от уводния параграф на статията на Уил Дъглас Хейвън в MIT Technology Review, публикувана на 10 юли 2024 г. под заглавие „Какво представлява ИИ? Всеки си мисли, че знае, но никой не може да се съгласи. И това е проблем“. От техноутопия до техно паника и всичко помежду им, отразяващи настроенията, безпокойствата и възприятията по отношение на изкуствения интелект в zeitgeist-а (духа на времето).

И след това безспорно закачливо въведение към есето си по темата, старшият редактор за ИИ в технологичното списание на Масачузетския технологичен институт дава кратка и ясна дефиниция в отговор на въпроса, зададен в заглавието. Само за да се докаже, че в действителност би било трудно, ако не и невъзможно, да се формулира обща дефиниция, представяща и обясняваща всички аспекти или възможни употреби и предизвикателства, произтичащи от масовото навлизане на ИИ в живота ни.

Тази статия не представлява опит да се формулира по-добра или по-изчерпателна, а да бъдат разгледани специфични типове и употреба на технология, задвижвана от ИИ – големите езикови модели (large languange models, или LLM), които могат да имитират начина, по който говорим и пишем – от гледна точка на медийната грамотност. Изобилие от дефиниции, речникови значения и метафори могат да бъдат намерени с доброто старо търсене в Google или ако с отбиване в Wikipedia, където ChatGPT е най-търсената тема през 2023 г. (на английски) с 49 милиона показвания на страницата със статията. Но както при всички изследователски търсения, медийната грамотност на практика и както демонстрира У. Д. Хейвън, способността да се формулират добри въпроси и да се търсят отговори критично (и самокритично) е пътят към намирането на отговори, били те временни (каквито несъмнено са).

Казано (перифразирано) с думите на Алвин Тофлър:

Неграмотните на XXI век няма да са тези, които не могат да четат и да пишат, а тези, които не умеят да учат, да забравят наученото и да научат отново и отново.

Концептуална рамка

Превръщайки се в синоним или нарицателно на ИИ (подобно на добре известни марки, с чието име се назовава и отъждествява цяла група продукти), ChatGPT съсредоточи значителен обществен интерес поради наситеното медийно отразяване и ускореното навлизане на генеративните ИИ технологии. Този интерес е забележителен въпреки многото различни разновидности на ИИ и чатботове с изкуствен интелект, налични в различни сектори, включително в образованието и бизнеса. Той подчертава потенциала на ИИ да трансформира множество области, благодарение на възможностите и достъпността му.

Историята на медиите предоставя ценен контекст за разбиране на генеративния изкуствен интелект като етап от траекториите на най-значимите нововъведения и революции, свързани с тяхното развитие. Скоростта на навлизане на ChatGPT е изключително висока, изпреварвайки както традиционните медии като телевизията, така и екстремно бързо развиващите се цифрови платформи като TikTok и Instagram. Неговият прогрес от появата му до преминаването на границата от 100 милиона потребители само за два месеца е безпрецедентен в историята на медиите.

Това бързо възприемане на генеративните ИИ (ГИИ) технологии като ChatGPT подчертава огромния интерес, който предизвиква, и потенциалното му въздействие, следвайки обичайния модел, относим към всяка нова медия. Той предизвиква не просто ентусиазъм, но и техноутопизъм поради проявените си и потенциални полезни употреби. В същото време основателните опасения относно способността му да изостря настоящите обществени проблеми, като генерирането и разпространението на невярна и подвеждаща информация, предизвикват техно- и морална паника.

Според IBM Research ГИИ се отнася до модели на ИИ, изградени чрез дълбоко обучение, които могат да генерират различни видове и форми висококачествено съдържание въз основа на данните, върху които са били обучени. От речника Merriam-Webster човек може да нуачи, че моделът прави това (да генерира съдържание) в отговор на поискано изпълнение на задача, като се учи от голяма справочна база данни с примери.

Но защо, въз основа на какви допускания и аргументи бихме могли да гледаме на големите езикови модели през призмата на медийните изследвания и медийната грамотност? И какви са последиците за медийната грамотност в контекста на развитието и наглизането на генеративния ИИ?

Нека очертаем някои от най-важните или най-очевидните причини.

Въздействие на LLM върху медиите и публиката

Генеративният ИИ и големите езикови модели фундаментално трансформират начина, по който медийното съдържание се създава, разпространява и консумира, оформяйки културното производство и представяне. Те вече променят работните процеси в редакциите и медийните организации. Интердисциплинарният характер на медийните изследвания позволява интегриране на технически, социални и хуманистични перспективи по отношение на ГИИ. Медийните изследвания предоставят рамки за анализиране на тези промени в медийната екосистема и помагат да се изследват последиците от генерираното от ИИ съдържание върху журналистиката, развлекателните и други медийни сектори. Подходите на МС могат също да изследват как GAI може да подсили или разстрои съществуващите структури на властта в медийната индустрия.

Подобно на алгоритмично управляваните системи за препоръчано съдържание, като тези на YouTube или TikTok, големите еизкови модели позволяват персонализирането на препоръки за съдържание и взаимодействия. Концепциите на медийните изследвания по отношение на рецепцията и ангажираността на публиката са от значение за разбирането на тази динамика.

Има опасения относно потенциала на ГИИ да генерира особено убедителна невярна и подвеждаща информация в огромен мащаб. Необходими са нови видове компетентност за разбиране и критично ангажиране с генерираните от ИИ медии. Рамките за медийна грамотност са от решаващо значение за подготовката на хората да оценяват критично както създаденото от човека, така и генерираното от ИИ съдържание и затова обучението по медийна грамотност трябва да еволюира по такъв начин, че да може да отговори на развитието и навлизането на ГИИ.

An Илюстрация, генерирана от Dall-e 3 чрез Bing със заявка (на авторката на статията) за изображение в стил минималистично 3D цифрово изкуство, показващо еволюцията на медиите и комуникацията от писмена реч до генериращ AI специално за тази статия.

По същество медийните изследвания и медийната грамотност използват и предоставят установени теоретични и методологични инструменти, които могат да бъдат приложени за критично изследване на сложните начини, по които ГИИ и големите езикови модели променят медиите, като същевременно се развиват, за да отговорят на уникалните предизвикателства, породени от тези технологии. Този подход може да предостави нюансирани хипотези и прозрения отвъд някои чисто технически анализи.

И това е нещото, което тази статия ви кани да направите.

Подходът на медийната грамотност окъм големите езикови модели

Обучението по медийна грамотност изисква непрекъснато развиване на навици за търсене на информация и умения за изразяване, необходими на хората, за да бъдат критично мислещи, разсъдливи и ефективни комуникатори и информирани и отговорни членове на обществото.

Сред десетките дефиниции за медийна грамотност, цитираната в превод на български по-горе, формулирана от Националната асоциация за обучение по медийна грамотност, е особено подходяща за практиката на взаимодействие с чатботове като ChatGPT, Perplexity, Mistral и Gemini, зад които има голям езиков модел, и потенциала за изграждане чрез това взаимодействие на компетентност, отнасяща се до медийната грамотност. Както упражняването на медийна грамотност, така и извличането на информация от ГИИ чрез заявка (prompt) за генериране на съдържание по начин, наподобяващ диалог, изискват способността да формулирате въпроси (адекватни на информационните нужди), да поставяте под съмнение отговорите и тълкуванията си, да анализирате заключенията, до които стигате, и да приемете, че може да сте се заблудили поради убедително представено твърдение, липсващи части от информация или поради човешката склонност към търсене на потвърждение (на английски: confirmation bias).

Това, което позволяват базираните на LLM чатботове и което е особено ценно от гледна точка на медийната грамотност, е да се експериментира и сравнява: какви отговори на един и същ въпрос ще получа от различни чатботове; как отговорите ще варират, ако задавам въпроси с различна формулировка, предоставям различен контекст, насочвам езиковия модел към различни области и цели или променям неговата температура. Мислете за комуникационния екран на чатбота като за пясъчник за подобряване на езиковите и аналитичните умения.

Чатботове като Perplexity (задвижвана от изкуствен интелект търсачка и асистент за разговори, предназначени да предоставят отговори в реално време на потребителски заявки, използвайки обработка на естествен език и LLM) са добри в тълкуването на значенията на отделни думи, фрази и семантичен анализ: денотативен (буквален ) и конотативно (асоциативно) значение на думи и изрази. И все пак, въпреки напредъка в семантичния анализ при LL моделите, многозначимостта в човешкия език остава едно от основните предизвикателства. Докато тези модели са добри в „разбирането“ на синтаксиса и семантиката на езика, те често се сбъскват с трудности при задачи, които изискват разбиране на света отвъд текста.

Въпреки че не са толкова напреднали, колкото техните семантични способности, големите езикови модели могат да извършват семиотичен анализ. Те може да не се справят добре със силно абстрактни или културно специфични символи и техният анализ може не винаги да улови пълната дълбочина или нюанс на символичните взаимоотношения. Но дори това ограничение е полезно, когато го осъзнаваме – ние, хората, също имаме своите ограничения в тълкуването на реторични фигури, знаци и символи, когато ни липсват необходимите знания и контекст.

Изображение, генерирано от Dall-e 2 в отговор на следната заявка (в началото на 2023 г.): Салвадор Дали рисува портрет на трансформиращия езиков модел Dall-E в сюрреалистичен футуристичен визуален стил

През последните години медийната грамотност до голяма степен се свързва с (и за съжаление се стеснява до) грамотността за новини (news literacy) и по-специално до проверката на фактите. А какво е проверка на фактите, ако не сравнение между различни източници, търсене на най-надеждните и уместни, така че твърденията, представени като факти, да могат да бъдат проверени или опровергани, а твърденията контекстуализирани? Този процес може да се практикува и в „диалод“ с голям езиков модел. По-специално „заиграването“ с Perplexity, представено от Кевин Рууз в неговата статия в New York Times от февруари 2024 г., озаглавена „Може ли тази търсачка, захранвана с изкуствен интелект, да замени Google? За мен го прави.“ Въпреки че твърди колко е впечатлен, след като е тествал Perplexity в продължение на седмици, авторът, журналист, водещ на подкаст (с Кейси Нютън) и технологичен колумнист за The New York Times признава страха си, че търсачките с ИИ могат да унищожат работата му. И че цялата цифрова медийна индустрия може да се срине в резултат на продукти като този.

Това, което отличава Perplexity от самото начало (пускането му на пазара) и е ключова негова (на чатбота) характеристика, е, че той генерира отговори не само въз основа на данните, върху които е обучен, но извършва търсене в мрежата, а отговорите му са анотирани с връзки към източниците, използвание за генериране на отговори на заявките, заедно със списък с предложени последващи въпроси. (Отказ от отговорност: авторката провежда своите тестове основно с Perplexity Pro, намирайки го за най-подходящ за нейната работа, но декларира, че няма никакви взаимодействия или взаимоотношения с компанията зад този продукт).

Perplexity поддържа списък от различни модели ИИ: патентован модел, оптимизиран за бързо търсене от Perplexity, Claude 3 Opus и 3.5 Sonnet, Sonar Large, обучен от Perplexity на базата на LLaMa 3, и усъвършенствания модел GPT-4o на OpenAI. Освен това позволява на потребителите да търсят в конкретен набор от източници (академични, видео, социални и т.н.), да видят последователността от задачи, изследвани от модела в процеса на генериране на отговори (за версията Pro), да генерират изображения, с помощта на Dall-e 3 и извършва задачи като извличане, анализиране и обобщаване на данни и информация от прикачени файлове в няколко различни формата (изображения, текстове или PDF).

Ето упражнение, което можете да направите, за да тествате как чатбот, „задвижван“ от LLM, може да ви помогне да направите основна проверка на фактите:

Отворете в два съседни раздела на вашия браузър Perplexity и ChatGPT (OpenAI вече позволява ограничено използване на премиум GPT 4o без платен абонамент). Въведете заявка, която инструктира чатбота да сравни степента на възприемане на генеративен ИИ от типа на чатбот като ChatGPT с навлизането на традиционни и нови медии като социално-медийните платформи. След като върне отговор, помолете го да анализира, идентифицира и изброи всички твърдения за факти, които е направил в параграф по ваш избор. На следващия ход (след като е отговорил на предишната заявка) помолете модела да провери фактите (да потърси и да се позове на поне два надеждни източника за всяко твърдение) във всички изброени твърдения.

Какво значение има всичко това?

От моя опит в работата със студенти и взаимодействието с новодошли или сравнително неопитни редактори в Уикипедия, в която участвам ангажирано като всеки друг доброволец (благодарение на което Уикипедия съществува), а освен това използвам като средство и инструмент за развиване на медийна грамотност, мога да кажа, че за много от тях е трудно да започнат да създават текстове с правилно и стриктно цитиране на надеждни и подходящи източници. Perplexity също позволява на потребителите да търсят в конкретен набор от източници (академични, видео, социални и т.н.), да видят последователността от задачи, изследвани от модела в процеса на генериране на отговори (за версията Pro), да генерират изображения, с помощта на Dall-e 3 и за извличане, анализиране и обобщаване на данни и информация от прикачени файлове в няколко различни формата (изображения, текстове или PDF).

Като се има предвид, че търсачките, работещи с изкуствен интелект, все още правят грешки и могат да „халюцинират“, наличието на среда като тази, предоставена от Perplexity, позволява на преподавателите да демонстрират и практикуват подготовката за провеждане на проучване. Това включва идентифициране на научни области, които се занимават с темата, която представлява интерес, извършване на преглед на литературата (literature review), генериране на набор от идеи, артикулиране на хипотези, разглеждане на възможностите и ограниченията на различни методи, очертаване на структура и изготвяне на план (последователност от стъпки и график за изпълнението им). Тези знания, умения и навици са важни за учащите като цяло, но също и за практикуването на медийна грамотност за всички видове и форми на медийно съдържание.

Какво друго бихте могли да правите със задвижвани от LLM чатботове без инженерно образование и познания (с всички уговорки, че резултатите може да съдържат незначителни грешки, частични неистини и абсолютни измислици, като същевременно , че този риск не е ограничен до ГИИ)?

  • да проверите дали ще намерите отговора на въпроса си в конкретен източник;
  • извличане и интерпретиране на данни от изображения, видеоклипове, информация, таблици и бази данни;
  • да поискате да направи основен статистически анализ или да разберете по-добре как работи статистиката;
  • да поискате да провери, коригира и обясни елементи от естествените или програмните езици;
  • да анализира човешкото поведение (включително уязвимост към логически грешки, емоции и предразположения).


Ако сте архивирали данни на някой от тези носители, как бихте ги прочели?“
Стари цифрови носители, излезли от употреба – Музей на компютърната история.
Автор: Ik T от Канагава, Япония. 5 ноември 2016 г. Лиценз: CC BY Wikimedia Commons

Бележка от автора: Дизайнът, обучението и използването на генеративен изкуствен интелект включват етични съображения и въпроси, които трябва да бъдат взети под внимание (поверителността, авторските права и устойчивостта са само някои от тях). Поради ограниченията в обема и обхвата на тази статия, тя не разглежда тези въпроси, но признава и подчертава тяхното значение.

В допълнение към публикациите, цитирани в тази статия, нейното създаване е повлияно от скорошното четене на следните няколко статии, които могат да се разглеждат като препоръчително четиво за тези, които се интересуват:

Prompt Engineering Fundamentals: what Prompt Engineering is, why it matters, and how we can craft more effective prompts for a given model and application objective

OECD Truth Quest Survey (published in June 2024). Truth Quest на Организацията за икономическо сътрудничество и развитие допринася за литературата в областта на измерването на невярно и подвеждащо съдържание, като предоставя сравними доказателства за различни държави (21, предимно англоезични, както и френско-, немско- или испаноезични) относно уменията за медийна грамотност по тема, тип и произход (генериран от хора или ИИ). Измерен е ефектът на етикетите за генерирано от/с ИИ съдържание върху способността на хората да правят преценка и е констатирано откъде хората получават своите новини, както и какви са възприятията им относно собствени им умения за медийна грамотност, наред с други въпроси.

Автор на статията: Иглика Иванова

Статията е създадена като част от партньорството на Коалицията за медийна грамотност с румънската организация Funky Citizens по проекта Digital Activism Program.
Оригиналната версия на статията на английски може да бъде прочетена в блога на Hive Mind.

Повече за програмата Digital Activism можете да намерите тук.

Заглавно изображение: Генерирано алтернативно от Dall-e 2 в отговор на същата заявка: Салвадор Дали рисува портрет на трансформиращия езиков модел Dall-E в сюрреалистичен футуристичен визуален стил

Scroll to Top
Scroll to Top