מעניין מאוד.
תודה על העדכון סדריק!
עדן
From: Cedric Yehuda Sabbah [mailto:YehudaC@justice.gov.il]
Sent: Wednesday, December 14, 2022 8:04 AM
To: Cedric Yehuda Sabbah <YehudaC@justice.gov.il>
Cc: Tal Werner kling <TalW@justice.gov.il>; Mirit Sharabi <MiritSh@justice.gov.il>; Asher Rottenberg <AsherRo@justice.gov.il>
Subject: [EXTERNAL] עדכון - תיקונים ל-AI Act של האיחוד האירופי
שלום לכולם,
ב-6 לדצמבר פורסמה "הגישה
הכללית" (General Approach)
של מועצת השרים (European Council)של האיחוד
האירופי לנוסח ה-AI Act
שהוצג על ידי נציבות האיחוד האירופי, ובכללה מספר תיקונים מוצעים לנוסח ה-AI Act.
כזכור, ה-AI Act הינו
הצעת
חקיקה של האיחוד האירופי בדבר אסדרה רחבת היקף של
AI
שפורסם באפריל 2021. הליך החקיקה האירופי דורש אישור של מועצת השרים ושל הפרלמנט האירופי טרם כניסת החקיקה לתוקף. הנוסח החדש שמציעה מועצת השרים כולל מספר שינויים מהטיוטה שפורסמה בעבר. יש לזכור כי גם נוסח זה איננו סופי. להלן מספר נקודות שעולות מהתיקונים
המוצעים:
1.
הגדרת מערכת
AI
– בשונה מההגדרה הרחבה של מערכת AI
בנוסח הקודם של הצעת החקיקה, ההגדרה המעודכנת מתייחסת רק ללמידת מכונה (machine learning)
ולגישות מבוססות לוגיקה וידע, לשימושים ספציפיים. בשונה מהנוסח הקודם, החקיקה לא תחול על
general purpose AI באופן מידי אך הנציבות
תבחן את האפשרות להתאים את החקיקה על general purpose AI
ותכין חקיקת משנה בנושא.
2.
הרחבת המגבלות על שימושים אסורים – האיסור על שימוש ב-AI
למטרות ניקוד חברתי (social scoring) הורחב
כך שכעת הוא חל גם על המגזר הפרטי, וזאת כדי למנוע מגורמי ממשל לעקוף את האיסור המופיע בנוסח הקודם באמצעות שכירת שירותים של קבלני משנה פרטיים. כמו כן, המונח "פגיעות" במסגרת האיסור הקיים על ניצול פגיעות (exploiting
vulnerabilities) הורחב מעבר לקטגוריות מוכרות כמו ילדים ואנשים עם מוגבלויות, ועכשיו כולל גם אנשים פגיעים
בשל מצבם החברתי-כלכלי (social or economic situation).
3.
שיטת ריבוד הסיכונים – כזכור, החקיקה מבוססת על הפרדה בין סוגי מערכות לפי רמת הסיכון
הנשקפת מהן, כאשר בנספח לחקיקה מופיעה רשימה של מערכות AI
שעלולות ליצור "סיכון גבוה" (high risk).
בנוסח החדש בוצעו שינויים ברשימת המערכות בסיכון גבוה. ראשית כל, כדי שההגדרה לא תהיה גורפת מדי, הוחרגו מערכות שהשפעתן על ההחלטה הסופית היא זניחה (“purely
accessory”). ההגדרה של המונח "purely accessory"
תיקבע בהמשך על ידי הנציבות. בנוסף, הוסרו מהרשימה המקורית של מערכות בסיכון גבוה מערכות לזיהוי
deep fake
על ידי גורמי אכיפת החוק, מערכות לעיבוד נתוני פשיעה ומערכות לאימות מסמכי נסיעה. לצד זאת, נוספו לרשימה מערכות המשמשות כרכיב בטיחות בניהול ובהפעלה של "תשתיות דיגיטליות קריטיות", וכן מערכות המשמשות לביצוע הערכת סיכונים ותמחור של ביטוחי בריאות וחיים.
לנציבות תהיה סמכות להסיר (ולא רק להוסיף, כפי שהיה בנוסח הקודם של הצעת החקיקה) מערכות מרשימה זו. כמו כן, חובת הרישום במסד נתונים של האיחוד לטכנולוגיות בסיכון גבוה הורחבה לכלל המשתמשים בסקטור הציבורי, למעט רשויות אכיפת החוק. הסעיפים בדבר חובות המערכת לעשות שימוש
במערכי מידע (dataset) איכותיים ולשמר
תיעוד טכני מפורט של המערכת הובהרו והותאמו כדי להקל על היכולת לעמוד בהם. לבסוף, הסעיפים החדשים מנסים להבהיר את הקצאת האחריות הרלוונטית על ספקים ומפתחים שונים שנטלו חלק בפיתוח המערכת.
4.
חובות על רשויות אכיפת החוק – צומצמו החובות שהוטלו על רשויות אכיפת החוק בנוסח הקודם
של הצעת החקיקה. לדוגמה, בעוד
שגורמים המשתמשים במערכות בסיכון גבוה יצטרכו לפקח על המערכות לאחר ההשקה ולדווח לספקי המערכות במקרה של תקריות חמורות, רשויות אכיפת חוק לא יצטרכו לדווח על תקריות חמורות שמערבות מידע מבצעי רגיש של אותן
רשויות. כמו כן, במסגרת ההיתר לשימוש בזיהוי ביומטרי בזמן אמת במרחבים ציבוריים, הנוסח החדש מבהיר את רשימת המקרים הנחשבת למקרה הכרחי (strictly necessary),
תוך התייחסות לאיתור קורבנות של עברות, הגנה על תשתיות קריטיות ורשימת עבירות נוספות (שהורחבה מהנוסח הקודם).
5.
משילות ואכיפה – הצעת החקיקה מרחיבה את הסמכויות שיינתנו לוועדה שתוקם (AI
Board), אשר עתידה לרכז ברמת האיחוד האירופי עצמו את עבודת הרשויות הלאומיות המוסמכות במדינות האיחוד ליישם
את חקיקת ה-AI. בין היתר, נקבע שיוקמו מתקני
בדיקה לצורך בקרת המערכות. הובהר גם כי גם אדם פרטי יוכל להגיש תלונה בגין הפרה לכאורה של החקיקה.
הופחתה הענישה על הפרה שבוצעה על ידי חברות קטנות ובינוניות (SMEs)
וסטארט-אפים, וכן הוספו קריטריונים אותם על הרשות המדינתית לשקול בבואה להטיל קנסות.
6.
חדשנות – במסגרת מתן האפשרות לשימוש בארגזי חול (sandboxes)
רגולטוריים, הובהר כי תינתן אפשרות לביצוע ניסוים בתנאי זמן אמת ללא פיקוח, לרבות ביחס למערכות שהוגדרו כ-high risk
(בכפוף למספר תנאים ומגבלות).
7.
שקיפות – דרישות השקיפות בנוגע לשימוש במערכות לזיהוי רגשות והשימוש ב-deep
fake
שופרו תוך הטלת חובה ליידוע הפרט לגבי השימוש במערכות אלו.
לסיכום, נדמה שחלק מהביקורת על רוחבו וחוסר בהירותו של הנוסח הקודם של החקיקה לצד החשש שהיא תגביל חדשנות ופיתוח טכנולוגי, הובילו להצעות לשינויים משמעותיים.
לצד זאת, ולמעט ביחס לחובות המוטלות על רשויות אכיפת החוק, שם נדמה כי המגמה מצמצמת דווקא, נראה כי האיחוד האירופי נחוש לשמור על מסגרת רחבה וכוללנית המתיימרת לתת מענה לכלל האתגרים שמציבים פיתוח, הטמעה ושימוש במערכות בינה מלאכותיות.
מבחינת המשך התהליך, הפרלמנט צפוי לסיים את הדיונים על נוסח החקיקה במרץ 2023, אז יחל המו"מ בין המועצה לבין הפרלמנט לגיבוש נוסח סופי. הצפי כרגע הוא
לאימוץ החקיקה ב-2024.
נמשיך לעקוב ולעדכן.
בברכה,
סדריק
scanned by Ministry of Justice