הבינה המלאכותית כבר הפכה לחלק מהפעילות הארגונית השוטפת. היא משפיעה על תהליכים, על קבלת החלטות, על שירות, על תפעול ועל ניהול ידע. אלא שבארגונים רבים השימוש ב-AI מתקדם מהר יותר מהניהול שלו. כאשר אין מסגרת ברורה של אחריות, בקרה וניהול סיכונים, הטכנולוגיה אינה רק יוצרת הזדמנות – היא גם מעצימה חשיפות קיימות.
מנהלים רבים שואלים: האם ה- AI עובד? אבל השאלה הנכונה היא: מה קורה כשהוא טועה?
בנקודה זו נכנס לתמונה תקן 42001 ISO לניהול מערכות בינה מלאכותית. מטרתו אינה לשפר את האלגוריתם עצמו, אלא כדי לסייע לארגון לנהל את השימוש ב-AI באופן אחראי, מבוקר ושיטתי.
מערכות AI מקבלות החלטות בביטחון רב. לפעמים התוצאה נכונה. לפעמים לא. בארגונים רבים אין יכולת להסביר כיצד ההחלטה התקבלה. זוהי בעיה ניהולית: אם אי אפשר להסביר – אי אפשר לשלוט. כאשר אי אפשר לשלוט – אי אפשר לקחת אחריות.
ניהול על פי עקרונות תקן 42001 ISO מאפשר: שקיפות, תיעוד ויכולת בקרה.
AI לומד מנתונים. כאשר הנתונים מוטים גם ההחלטות עלולות להיות מוטות. לעיתים מדובר בהמלצה לא מדויקת או בדירוג לא הוגן.
אך במקרים אחרים, המשמעות עלולה להיות חמורה הרבה יותר: אפליה, פגיעה במוניטין וחשיפה משפטית.
ניהול על פי עקרונות תקן 42001 ISO מחייב: זיהוי סיכונים, ניטור ובקרה מתמשכת.
ה-AI לא נכנס דרך ההנהלה בלבד. פעמים רבות הוא נכנס דרך עובדים: בניסוח מיילים, בהפקת תכנים, ניתוחים ואף תמיכה בקבלת החלטות. כאשר אין מדיניות ברורה, כל עובד משתמש בכלי אחרת. התוצאה היא חוסר אחידות, טעויות וסיכונים תפעוליים. יישום עקרונות 42001 ISO מסייע להגדיר: גבולות שימוש, הנחיות ברורות ואחריות.
AI לא מייצר ידע אלא מעבד מידע קיים. כאשר המידע אינו מדויק, או לא אמין – גם התוצאה תהיה בהתאם. הסיכון גדול במיוחד כאשר ההחלטות העסקיות מתקבלות על סמך הפלט, או כאשר מתבצעת אוטומציה של תהליכים.
42001 ISO שם דגש על איכות נתונים, מקורות מידע ובקרות מתאימות.
השאלה הפשוטה והחשובה ביותר: מי אחראי על AI בארגון?
בפועל, במקרים רבים האחריות נופלת בין הכיסאות :מחלקת IT סבורה שהנושא לא בתחום אחריותה, הנהלה אינה מעורבת מספיק ומחלקות האיכות או הרגולציה אינן מחוברות לתהליך. התוצאה היא מצב מסוכן שבו אף אחד אינו אחראי באמת. זהו אולי הסיכון הגדול ביותר.
42001 ISO מחייב: הגדרת אחריות, ממשל (Governance), הפרדה בין שימוש לבקרה.
המשותף לכל הסיכונים הללו הוא שהם אינם נובעים רק מהטכנולוגיה עצמה, אלא בעיקר מניהול חסר. לכן נכון לומר: AI אינו יוצר בהכרח סיכון חדש; הוא בעיקר מעצים סיכונים קיימים.
ארגונים לא נכשלים בגלל AI. הם נכשלים בגלל חוסר שליטה בו.
כאן בדיוק עובר הגבול בין: שימוש ב-AI לבין ניהול AI.
לא עוצרים את הפעילות הקשורה ב-AI, אבל גם לא רצים להטמיע תקן ללא חשיבה.
השלב הראשון הוא להבין: היכן ה-AI כבר משפיע על הארגון, אילו סיכונים נוצרים והיכן אין כיום שליטה מספקת.
קריאה לפעולה למנהלים שרוצים שליטה
אם גם בארגון שלכם נעשה כיום שימוש ב-AI, עכשיו הזמן לעצור ולבחון :היכן אתם נהנים מערך והיכן אתם חשופים לסיכון.
אנו בחברת OK יועצים לניהול מלווים הנהלות בזיהוי שימושי AI , במיפוי סיכונים ובהערכת פערים ניהוליים, לצורך בניית שליטה ארגונית אפקטיבית לפי עקרונות ISO 42001
מוזמנים לפנות אליי לשיחה מקצועית בנושא.
אורנה קמין, 0537739018, orna.kamin@gmail.com