בינה מלאכותית, מפעל השמועות
כוורת העולם הערבי

בינה מלאכותית, מפעל השמועות

מומחים הזהירו כי בינה מלאכותית תחייה תהליכי דיסאינפורמציה ותהפוך אותם למשכנעים יותר וקרובים יותר לאמינים בצורה קלה וזולה יותר.

משמיעים צופרי אזהרה

ב-7 באפריל, ארגון הבריאות העולמי חגג את יום הבריאות העולמי, ולא רק התמקד בהתמודדות עם אתגרים גדולים לאור מגיפת הקורונה במהלך השנתיים האחרונות, אלא גם התמקד במגיפה חדשה הקשורה ל”מידע מוטעה”.

כיום, הארגון מתמודד עם הסתמכות של חלקם על דיווחים או מידע המוצגים על ידי תוכניות ויישומים של בינה מלאכותית גנרטיבית, אשר זוכים לאמון על ידי מתבגרים ובני נוער בפרט, מה שמגדיל את הנטל על הארגון.

כלי בינה מלאכותית גנרטיבית מתוארים ככלי החזק ביותר להפצת מידע שגוי המופץ באינטרנט, שכן בינה מלאכותית מכילה תורמים לדיסאינפורמציה.

צוות להתעמת

ארגון הבריאות העולמי הקים צוות שיעבוד עם חברות מנועי חיפוש ורשתות חברתיות כמו פייסבוק, גוגל, פינטרסט, טנסנט, טוויטר, TikTok, יוטיוב ואחרים כדי להתמודד עם התפשטות השמועות המכילות מידע כוזב על הקורונה, במה תוארה כ”מגיפת מידע”.

תאוריות קונספירציה

הניו יורק טיימס, מצטט מומחים, צופה שיישומי AI גנרטיביים יכולים להפוך את ייצור דיסאינפורמציה לזול וקלה יותר, במיוחד עבור אלה שמתמחים בהפצת תיאוריות קונספירציה.

חדשות לא אמיתיות מסווגות כמידע שגוי או כמידע כוזב.

והעיתון האמריקאי מצטט מומחים הטוענים שצ’אטבוטים עשויים “לחלוק תיאוריות קונספירציה בצורה אמינה ומשכנעת יותר, על ידי הפחתת שגיאות תחביר או תרגום שגוי”.

פחדים

במאמר משנת 2019, חוקרים מ-OpenAI, החברה שפיתחה את ChatGBT, העלו חששות לגבי היכולות של האפליקציות להפחית את העלויות של מסעות פרסום דיסאינפורמציה, וכי ניתן להשתמש בהן לרווח כספי, לקידום אג’נדה פוליטית מסוימת, או ליצירת מידע מוטעה. כאוס ובלבול.

מפעל שמועות

התקופה החולפת סיפקה מספר עדויות לסכנות שבסטייה ביישומי בינה מלאכותית מחוללת, מבחינת השימוש בה להמצאת אישומים של הטרדה, לשון הרע וזיוף עובדות ועובדות היסטוריות, מה שמצביע על האפשרות להפוך את הבקשות הללו. לתחום להפצת שמועות ושקרים.

בפברואר השיקה OpenAI כלי עזר להבחין בין טקסט שנכתב על ידי אדם לבין טקסט שנוצר בצ’אטבוט, עליו היא עדיין עובדת כדי להשיג דיוק רב יותר.

מומחים הדגישו את היעדר מנגנון ברור לחסל את האיומים שמציבים בוטים של בינה מלאכותית.

עקוב אחר המידע שלי

ההשפעה של חדשות מזויפות נראית מפחידה מבחינת מהירות התפשטותן, והמכון הטכנולוגי של מסצ’וסטס אישר, בהתבסס על מחקר מיוחד שערך, כי חדשות מזויפות מתפשטות בקצב של פי 6 מהר יותר מסיפורים אמיתיים, וכי ההסתברות להפצה מחדש של חדשות לא אמיתיות עולה מהריאל ביותר מ-70%.

זיוף קל

בינה מלאכותית לא רק מזייפת חדשות, אלא אפילו תמונות, שכן כל אחד הצליח לזייף כל תמונה בקלות ובמהירות אדירה, מה שמעמיד בספק הרבה מהדברים שמתפרסמים, ולפי פלטפורמת “Tido”, “בעת הקריאה כל דבר באינטרנט שאנחנו צריכים לשים המוח שלנו נמצא במצב ‘חדשות מזויפות’, כי אתה צריך להטיל ספק בכל מה שאתה קורא.”

חוקרים עובדים על רתימת בינה מלאכותית לאיתור חדשות מזויפות באמצעות מסדי נתונים סופר מדויקים.

כיצד לזהות מידע מטעה

* ניתוח מבנה ניסוח המידע

רבים מסיפורי החדשות הללו משתמשים בביטויים כמו “הם לא רוצים שתדע את האמת”.

* חפש מידע במקורו העיקרי

* בקר בפרופיל של מי שמשתף מידע ומדבר עליו

(חדשות מזויפות מופצות בדרך כלל באמצעות חשבונות מזויפים או חדשים שנוצרו).

* השתמש בכלי אימות נוספים

* דווח על הפרסום אם המידע המטעה שלו אושר

טיפים לקו הבריאות לאיתור חדשות רפואיות מזויפות

* ראה מידע ממקורות שונים

* קרא את ההערות, שכן הן חושפות היבטים של החדשות או הדיווח ומעוררות חשיבה ודיונים

* לשמור על חשיבה ביקורתית כדי לוודא את מטרת המידע ומטרתו

* שתפו את החדשות בזהירות, ואל תיגררו אל מאחורי הכותרות

* ודא שהפוסט אמין לפני פרסום מחדש

על המשתף

beeBuzz

0 0 הצבעות
דירוג מאמר
הירשם
להודיע על
0 הערות
הוותיק ביותר
החדש ביותר תגובה נבחרת
משובים מוטבעים
צפה בכל התגובות