Както знаете, в ESGnews.bg имаме рубрика, в която изкуственият интелект ChatGPT пише собствени статии. Идеята ни е представим възможностите на изкуствения интелект и да покажем дали той може да свърши наистина работата на журналиста. Истината е, че това няма как да се случи и днес ще ви докажем, че е така.
Наскоро наш читател ни сигнализира, че статия (“Търговията с кожи в Европа”), написана от чатбота, съдържа невярна информация. Нашият читател Петя Алтимирска е председател на УС на КАЖИ (Кампании и Активизъм за Животните в Индустрията) и я поканихме в редакцията на ESGnews.bg, за да ни запознае с реалните данни за търговията на кожи в Европа и дали действително има забрана в някои страни. Оказа се, че наистина данните на чатбота не са верни и голяма част от информацията е грешна. Целия ни разговор с Петя Алтимирска може да очаквате в понеделник в сайта ESGnews.bg.
Както знаете, изкуственият интелект черпи информация от цялото интернет пространство и има източници, които НЕ могат да се считат за достовена имнформация. Поради тази причина решихме да попитаме ChatGPT дали можем да вярваме на изкуствения интелект. Ето какво ни отговори той:
Може ли да се вярва на изкуствения интелект?
Като модел на AI език, аз нямам чувства или намерения като хората, така че нямам пристрастия или способността да действам неблагонадеждно. Въпреки това начинът, по който AI е проектиран и обучен, може да повлияе на неговата надеждност.
AI системите са толкова добри, колкото и данните, върху които се обучават, и алгоритмите, използвани за тяхното обучение. Ако една AI система е обучена на предубедени или погрешни данни, тя може да доведе до пристрастни или погрешни резултати. Освен това, ако една AI система е лошо проектирана или ѝ липсва прозрачност, може да е трудно да се разбере как е стигнала до своите заключения, което може да подкопае доверието.
И така, за да отговоря на въпроса ви, дали може да се вярва на изкуствения интелект или не, зависи от това как е проектиран, обучен и внедрен. С подходящ дизайн, обучение и прозрачност, AI системите могат да бъдат надеждни и ценни инструменти в много области на живота.
Как отсяваш фалшивите новини от достоверните?
Като модел на AI език, аз не създавам новини, а по-скоро предоставям информация и отговарям на въпроси. Въпреки това, за да гарантирам, че информацията, която предоставям, е достоверна, аз съм предназначен да използвам обширна база данни с информация от надеждни източници и да избягвам твърдения, които не могат да бъдат подкрепени с доказателства.
Освен това OpenAI, компанията, която разработи моята архитектура, има въведени строги насоки и политики, за да гарантира, че техните AI модели се използват по отговорен и етичен начин.
Като се има предвид това, винаги е добра идея да практикувате критично мислене и да проверявате всяка информация, която получавате, независимо от източника. Съветите, които споменах в предишния си отговор, като проверка на източника, проверка на доказателства, проверка за последователност, изследване на езика и тона и проверка на фактите, могат да бъдат приложени към всяка информация, която получавате, включително от езикови модели на ИИ като мен.
Прочете още: