חמישה סיכונים קריטיים בשימוש ב-AI שתקן 42001 ISO נועד לסייע לארגונים לנהל

אורנה קמין, מנכ"לית OK יועצים לניהול

הבינה המלאכותית כבר הפכה לחלק מהפעילות הארגונית השוטפת. היא משפיעה על תהליכים, על קבלת החלטות, על שירות, על תפעול ועל ניהול ידע. אלא שבארגונים רבים השימוש ב-AI מתקדם מהר יותר מהניהול שלו. כאשר אין מסגרת ברורה של אחריות, בקרה וניהול סיכונים, הטכנולוגיה אינה רק יוצרת הזדמנות – היא גם מעצימה חשיפות קיימות.

לפני הכול: נקודת העיוורון הניהולית

מנהלים רבים שואלים: האם ה- AI עובד? אבל השאלה הנכונה היא: מה קורה כשהוא טועה?

בנקודה זו נכנס לתמונה תקן  42001 ISO  לניהול מערכות בינה מלאכותית. מטרתו אינה לשפר את האלגוריתם עצמו, אלא כדי לסייע לארגון לנהל את השימוש ב-AI באופן אחראי, מבוקר ושיטתי.

חמישה סיכוני AI מרכזיים

  1. החלטות שגויות בלי יכולת להסביר למה

מערכות AI מקבלות החלטות בביטחון רב. לפעמים התוצאה נכונה. לפעמים לא. בארגונים רבים אין יכולת להסביר כיצד ההחלטה התקבלה. זוהי בעיה ניהולית: אם אי אפשר להסביר – אי אפשר לשלוט. כאשר אי אפשר לשלוט – אי אפשר לקחת אחריות.

ניהול על פי עקרונות תקן 42001 ISO מאפשר: שקיפות, תיעוד ויכולת בקרה.

  1. הטיה (Bias) שעלולה לפגוע בלקוחות

AI לומד מנתונים. כאשר הנתונים מוטים גם ההחלטות עלולות להיות מוטות. לעיתים מדובר בהמלצה לא מדויקת או בדירוג לא הוגן.
אך במקרים אחרים, המשמעות עלולה להיות חמורה הרבה יותר: אפליה, פגיעה במוניטין וחשיפה משפטית.

ניהול על פי עקרונות תקן 42001 ISO מחייב: זיהוי סיכונים, ניטור ובקרה מתמשכת.

  1. שימוש לא מבוקר על ידי עובדים

ה-AI לא נכנס דרך ההנהלה בלבד. פעמים רבות הוא נכנס דרך עובדים: בניסוח מיילים, בהפקת תכנים, ניתוחים ואף תמיכה בקבלת החלטות. כאשר אין מדיניות ברורה, כל עובד משתמש בכלי אחרת. התוצאה היא חוסר אחידות, טעויות וסיכונים תפעוליים. יישום עקרונות 42001 ISO מסייע להגדיר: גבולות שימוש, הנחיות ברורות ואחריות.

  1. תלות בנתונים לא מבוקרים

 AI לא מייצר ידע אלא מעבד מידע קיים. כאשר המידע אינו מדויק, או לא אמין – גם התוצאה תהיה בהתאם. הסיכון גדול במיוחד כאשר ההחלטות העסקיות מתקבלות על סמך הפלט, או כאשר מתבצעת אוטומציה של תהליכים.

42001 ISO שם דגש על איכות נתונים, מקורות מידע ובקרות מתאימות.

  1. היעדר אחריות ברורה

השאלה הפשוטה והחשובה ביותר: מי אחראי על AI בארגון?

בפועל, במקרים רבים האחריות נופלת בין הכיסאות :מחלקת IT סבורה שהנושא לא בתחום אחריותה, הנהלה אינה מעורבת מספיק ומחלקות האיכות או הרגולציה אינן מחוברות לתהליך. התוצאה היא מצב מסוכן שבו אף אחד אינו אחראי באמת. זהו אולי הסיכון הגדול ביותר.

42001 ISO מחייב: הגדרת אחריות, ממשל  (Governance), הפרדה בין שימוש לבקרה.

מה משותף לכל הסיכונים?

המשותף לכל הסיכונים הללו הוא שהם אינם נובעים רק מהטכנולוגיה עצמה, אלא בעיקר מניהול חסר. לכן נכון לומר:  AI אינו יוצר בהכרח סיכון חדש; הוא בעיקר מעצים סיכונים קיימים.

תובנה ניהולית

ארגונים לא נכשלים בגלל AI. הם נכשלים בגלל חוסר שליטה בו.

כאן בדיוק עובר הגבול בין: שימוש ב-AI לבין ניהול  AI.

 

מה עושים עכשיו?

לא עוצרים את הפעילות הקשורה ב-AI, אבל גם לא רצים להטמיע תקן ללא חשיבה.

השלב הראשון הוא להבין: היכן ה-AI כבר משפיע על הארגון, אילו סיכונים נוצרים והיכן אין כיום שליטה מספקת.

קריאה לפעולה למנהלים שרוצים שליטה

אם גם בארגון שלכם נעשה כיום שימוש ב-AI, עכשיו הזמן לעצור ולבחון :היכן אתם נהנים מערך  והיכן אתם חשופים לסיכון.

אנו בחברת  OK יועצים לניהול מלווים הנהלות בזיהוי שימושי AI , במיפוי סיכונים ובהערכת פערים ניהוליים, לצורך בניית שליטה ארגונית אפקטיבית לפי עקרונות ISO 42001

מוזמנים לפנות אליי לשיחה מקצועית בנושא.

אורנה קמין, 0537739018, orna.kamin@gmail.com