החדר הסיני הוא ניסוי מחשבתי שהציע ג'ון סרל ב־1980 כדי לבקר את מבחן טיורינג ואת רעיון ה'בינה מלאכותית החזקה'. מבחן טיורינג (בדיקה שמנסה לבדוק אם שיחה עם מכונה נבדלת משיחה עם אדם) משמש לטענת התומכים כדי לומר שמכונה שעוברת אותו 'חושבת'. בינה מלאכותית "חזקה" היא הרעיון שמכונה שעושה את מה שאדם עושה, גם מחזיקה בהבנה כמוהו.
בסיפור יש אדם שלא מבין סינית היושב בחדר סגור. מחוץ לחדר נכנס דף בסינית דרך חריץ. בתוך החדר יש ספר חוקים, אלגוריתם, כלומר סדרת הוראות ברורה, שמסביר איך להגיב לסימנים על הדף. האדם עושה בדיוק את מה שהספר אומר. בסוף יוצא דף בתשובות בסינית, שאדם מחוץ לחדר קורא כסינית תקינה. כך החדר מדמה מחשב: הספר הוא התוכנה, והאדם הוא המעבד. סרל מציין שאפילו אם נותנים לאדם כלי זיכרון או קוביות אקראיות, הדבר לא הופך את האדם למבין סינית.
סרל טוען שעובדה שמערכת עוברת מבחן טיורינג אינה מוכיחה הבנה פנימית. המפעיל שבחדר מטפל בסמלים לפי חוקים, אבל אינו מבין את השפה. לפיכך גם אם המערכת נראית מבחוץ כאילו מבינה, אין זה אומר שיש לה תודעה או הבנה כפי שבני אדם חווים.
מתנגדים אומרים שהאדם לבד לא מבין, אבל כל המערכת, אדם, ספר וחדר, כן. סרל משיב שאדם יכול ללמוד בעל־פה את החוקים ועדיין לא להבין את השפה.
ביקורת נוספת אומרת שאם התוכנית תושם ברובוט שמצליח לתקשר בסביבה, אז הרובוט כן יבין. סרל מציע שאפילו במקרה כזה המפעיל הפנימי רק ימיר קלט לפלט על פי חוקים, בלי הבנה.
יש גם טיעונים שאומרים שאם הספר לא יכול לענות על כל שאלה אפשרית, אז המבחן נכשל. ואם הספר כן יכול, הרי זו דרישה חישובית חזקה מאוד. מועלים גם טענות על מעגליות בטיעונים אלה.
סרל מסביר שהויכוח נוגע באופן שבו מסתכלים על המערכת מבחוץ. הוא לא דואג לדואליזם (רעיון של נפש נפרדת מהגוף). סרל סובר שהתודעה נובעת מפעילות נוירופיזיולוגית במוח, אך אינה ניתנת לרדוקציה מלאה לתהליכים אלה, כלומר, לא ניתן לפרק אותה רק לחוקים חישוביים בלי לאבד משהו מהמהות.
החדר הסיני הוא רעיון שג'ון סרל הציע ב־1980. זה ניסוי בדמיון. מבחן טיורינג זה מבחן שבודק אם שיחה עם מחשב נראית כמו שיחה עם אדם. אלגוריתם זה ספר הוראות מדויקות.
אדם שלא מבין סינית יושב בחדר. יש לו ספר הוראות. מחוץ לחדר מכניסים דף בסינית. האדם עוקב אחרי הספר ומחזיר דף בתגובה. הבחוץ חושב שמדברים בסינית. האדם שבחדר לא מבין מילה.
סרל אומר שזה מראה: רק כי משהו נותן תשובות כמו אדם, לא אומר שהוא באמת מבין. המפעיל בחדר ממלא הוראות בלי להבין. לכן מכונה שעונה נכון לא בהכרח 'מבינה'.
חלק אומרים שהמערכת כולה, אדם + ספר + חדר, כן מבינה. אחרים אומרים שאם מכניסים את התוכנית לרובוט שמרגיש את העולם, אז אולי כן תהיה הבנה. יש גם מי שאומר שהספר לא יוכל לענות על כל שאלה אפשרית.
סרל משיב שהויכוח הוא איך מסתכלים על המערכת מבחוץ. הוא לא אומר שהתודעה היא נשמה נפרדת. הוא חושב שהתודעה נוצרת בפעילות המוח, אבל אי אפשר להסביר אותה רק על ידי פירוק לחוקים.
תגובות גולשים