וושינגטון מציעה הנחיות להסדרת השימוש ב- AI

ממשלת טראמפ מציעה כללים חדשים להנחות רגולציה פדרלית עתידית של בינה מלאכותית המשמשת ברפואה, תחבורה ותעשיות אחרות.

אך אי-דיוק העקרונות עליהם הודיע ​​הבית הלבן לא סביר לספק את ערנות ה- AI שהזהירו מפני חוסר אחריות ככל שמערכות מחשבים נפרסות למלא תפקידים אנושיים בסביבות חברתיות בסיכון גבוה כמו הלוואות. משכנתא או גיוס עבודה.

הבית הלבן אמר כי בהחלטה על פעולות רגולטוריות, סוכנויות אמריקאיות "חייבות לשקול צדק, אי-אפליה, פתיחות, שקיפות, ביטחון והגנה."

אך סוכנויות פדרליות צריכות גם להימנע מהצבת מגבלות ש"פוגעות שלא לצורך בחידוש וצמיחה של ה- AI ", נכתב בתזכיר שנשלח לראש הסוכנות האמריקני על ידי ראסל ווכט, מנהל הביניים של משרד הניהול והתקציב.

"סוכנויות צריכות להימנע מגישה זהירה ששומרת על מערכות AI ברמה כל כך גבוהה, עד שהחברה לא תוכל ליהנות מהיתרונות שלהן", נכתב בתזכיר.

הכללים לא ישפיעו על האופן בו סוכנויות פדרליות כגון אכיפת החוק משתמשות בזיהוי פנים ובצורות אחרות של AI. הם מוגבלים באופן ספציפי לאופן בו סוכנויות פדרליות מכינות תקנות AI חדשות למגזר הפרטי. יש תקופת התייחסות לציבור של 60 יום לפני כניסת הכללים לתוקף.

לין פרקר, סגן מנהל הטכנולוגיה האמריקני במשרד הבית הלבן למדיניות מדע וטכנולוגיה, אמר כי "עקרונות אלה הם מהשורה הראשונה במכוון." "בכוונה רצינו להימנע מהתקנות בגודל אחד שמתאימה לכולם."

מהבית הלבן נמסר כי ההצעות שהוגשו ביום שלישי נועדו לקדם יישומי AI במגזר הפרטי בטוחים והוגנים, כמו גם לדחוף נגד תקנות מחמירות המועדפות על ידי כמה מחוקקים ופעילים.

סוכנויות פדרליות כמו מינהל המזון והתרופות ומינהל התעופה הפדרלי יידרשו לפעול לפי עקרונות AI חדשים.

זה הופך את הכללים ל"ראשונים מסוגו בכל ממשלה ", אמר מייקל קרציוס, קצין הטכנולוגיה הראשי בארה"ב, בשיחה עם כתבים ביום שני.

ההתקדמות המהירה בטכנולוגיית AI עוררה חששות חדשים ככל שמחשבים מקבלים יותר ויותר משימות כמו אבחון מצבים רפואיים, נהיגה במכוניות, המלצה על השקעות במניות, שיפוט בסיכון אשראי והכרת פנים פרטניות בוידאו.

לעיתים קרובות לא ברור כיצד מערכות AI מקבלות את החלטותיהן, מה שמוביל לשאלות עד כמה ניתן לבטוח בהן ומתי להתעדכן בבני אדם.

טרה ליונס, מהשותפות ללא מטרות רווח ב- AI, הדוגלת ב- AI אחראי ובעלת גיבוי של חברות טכנולוגיה ופילנתרופים גדולים, אמרה כי סביר להניח כי לעקרונות הבית הלבן לא תהיה השפעה מיידית או רחבה.

אבל היא אמרה שעודדה אותם על ידיהם לפרט גישה אמריקאית המתרכזת בערכים כמו אמינות והגינות.

ליונס, שעבד בעבר במשרד המדע והטכנולוגיה של הבית הלבן תחת ממשל אובמה, אמר כי "קהילת המפתחים של AI יכולה לראות בכך צעד חיובי בכיוון הנכון. "קצת קשה לראות מה תהיה ההשפעה האמיתית."

מה שחסר, הוסיף, הם מנגנונים ברורים להחשבת מערכות AI באחריות.

צופה טכנולוגי אחר, מכון AI Now של אוניברסיטת ניו יורק, אמר כי הוא אימץ גבולות חדשים ביישומי AI, אך "ייקח זמן להעריך את יעילותם של עקרונות אלה בפועל."

קרציוס אמר כי הוא מקווה שהעקרונות החדשים יוכלו לשמש מודל למוסדות דמוקרטיים אחרים, כמו הנציבות האירופית, שהציגה הנחיות AI משלו על שמירת ערכים משותפים מבלי לפגוע בתעשיית הטכנולוגיה.

זו, לדבריו, "הדרך הטובה ביותר להתמודד עם השימושים האוטוריטריים של AI" על ידי ממשלות שמטרתן "לעקוב, לעקוב ולכלוא את בני עמם". ממשל טראמפ ניסה להעניש בשנה שעברה את סין בגלל השימוש ב- AI בארה"ב. רואים את זה פוגע.

משרד המסחר האמריקני רשם בשנה שעברה מספר חברות בינה מלאכותית סיניות לאחר שממשל טראמפ אמר כי הוא היה מעורב בפיצוח המוסלמים באזור שינג'יאנג. הסוכנות מציינת היום (שני) את החששות לביטחון לאומי וקבעה מגבלות על ייצוא תוכנת AI המשמשת לניתוח תמונות לוויין.

מקור: סוכנות ידיעות AP // צילום: צילום AP / מרטין מייזנר

השאר תגובה

כתובת הדוא"ל שלך לא תפורסם. שדות חובה מסומנים *

אתר זה משתמש Akismet כדי להפחית דואר זבל. למד כיצד עיבוד נתוני המשוב שלך.