בתשובה להפונז, 26/02/24 12:25
ג׳פטו 4 767349
ייתכן שאתה צודק. gpt ודומיו מושפעים מן המאמץ שהשקעת בשאלה ומה שלדעתם זה אומר עליך.
דוגמא שנתקלתי בה מקרוב היא בקשה לניסוח אימייל קצר אך עתיר דקויות שקשורות לרבדים בשפה האנגלית, לדימוי של המוסד ממנו יוצא האימייל ולדקויות שקשורות לנמען.

אחרי הרבה איטרציות, התברר למשתמש שבמקום להנחות את gpt כיצד לשפר אימייל שהוא כבר השקיע מזמנו כדי להביא אותו קרוב ככל האפשר לנוסח הרצוי, עדיף לכתוב באנגלית פשוטה (לא מקצועית), ורק אחרי זה להנחות את gpt.
אפשרות זו דורשת פחות איטרציות - שזה אומר פחות זמן וכסף. מה שהפתיע הוא שביחס לאפשרות הראשונה, הניסוח שהתקבל התברר כעדיף באופנים שהמשתמש לא שיער מראש.

מה שקרה הוא אולי‏1 שכאשר אתה מגיש לו משהו מוקפד, gpt, בדומה למזכיר אנושי, מנסה לשמור ככל האפשר על מרכיבים במסמך המקורי בבצעו את השיפורים. כאשר המסמך כתוב מראש בלשון המוסכים של דרום שיקגו, ואני לא מדבר על אלו המורשים, הוא נוטל לעצמו חירות מלאה, תוך שימוש במלוא כישוריו לצורך ביצוע ההנחיות.

1 הזהרת ספקולציה: אחרי שנים של דיאגנוזות של רשתות נוירונים, שמתי לב שאפשר לתת הסבר משכנע עבור הגורם כביכול לכל תוצר מפתיע שלהן...והיפוכו, מה שמביא אותי לזהירות יתרה בכגון אלו.
ג׳פטו 4 767350
ייתכן שהרגישות הגדולה של בינה מ., ובפרט של LLM's, לפרומפט מעידה על משהו ששונה באופן די מהותי מהדרך בה רשתות הנוירונים שלנו עובדות. שאלתי אותו מ דעתו.

הוא החזיר לי רשימה של הבדלים בין AI ל-HS בלי שום התייחסות לעניין הפרומפט שהיה נושא השאלה שלי. אין לי חשק מיוחד לשחק עם הפרומפט הזה...
ג׳פטו 4 767353
מעניין. הדבר הראשון שהוביל אותי לתפוס את gpt כחושב, עוד בדצמבר האחרון, היה היכולת שלו להבין שניתן לשאול את אותו הדבר במגוון דרכים, עוד לפני בדיקת נכונות התשובות שלו.
אבל כמו שראינו אח"כ, זה מסובך יותר. ויש לכך כמה גורמים. עיקרם, להבנתי, אינו קשור ישירות לארכיטקטורה שלו, אלא יותר לשלבי הלימוד, ובמיוחד החינוך שהוא עובר בסוף, כולל ניסיונות להבין מה באמת רצה המשתמש לשאול, במקום פשוט לענות על זה. כנראה שסטטיסטית, זו איסטרטגיה יכולה יותר עבור המשתמש הממוצע. לצורך זה הוסיפו עבור משתמשים משקיענים, יכולת להגדיר עבורו בתור מי הוא עונה ובתור מי המשתמש שואל. כשלעצמי, לא תמיד יש לי חשק להגדיר את מערכת היחסים ואז אחרי ניסיון אחד אני נוטש לטובת סידרת גיגולים.
ג׳פטו 4 767362
ברור שזו דרך שונה, מה השאלה.
כל מה שהוא עושה זה מניפולציות על מחרוזות של טקסט.
יש לך ספק בכלל שהביולוגיה של המוח האנושי לא נולדה ועוצבה עבור מחרוזות של טקסט?
ג׳פטו 4 767364
סיקרנת אותי וגם שיחקתי עם זה קצת. המוצר הזה שאתה משחק איתו (Copilot של מיקרוסופט) הוא מסכן - יש לו פיגור. הוא טועה על דברים די פשוטים שמוצרים אחרים לא טועים בהם. זה מרגיש כמו אינטגרציה די גרועה שעשה איזה Web code monkey בין GPT מן המוכן לבין מנוע חיפוש מן המוכן, בלי הרבה מחשבה או תכנון. זאת לא דוגמה טובה למוצר טוב או למקום בו אנו נמצאים.

שאלת דוגמה שסיפקתי לו ול-ChatGPT4 של OpenAi:
What prime number bigger than 2^24 is the smallest number that has 3 as one of the digits?

Copilot:
The smallest prime number greater than 2^24 (which is 16,777,216) that contains the digit 3 is 3,173,311. This number satisfies both conditions: it is a prime number and has the digit 3 in it

OpenAi:
The smallest prime number greater than 2^24 that contains the digit 3 is 16,777,331.

ג׳פטו 4 767379
לתומי חשבתי שמה שקובע זה GPT4 שיושב ברקע.
ג׳פטו 4 767394
כנראה פספסתי את התגובה הזו בזמן אמת.
התשובה של קופיילוט כל כך קפקאית בעיני, שאני תוהה אילו נזקים נפשיים ייגרמו לאוכלוסיית העולם כתוצאה מאינטגרציה של AI במענה של שירות לקוחות, למשל.

רגע, דיון 4212!
ג׳פטו 4 767395
בהחלט, אבל לדעתי זאת לא ביקורת על בינה מלאכותית או הנדסת תוכנה. הפיגור של המוצר הזה מריח לגמרי כמו קלאסטרפאק טיפוסי של אנשי שיווק ומנהלי מוצר‏1.

___________________
1 שיחת זום בחדר ישיבות בקומה 27 באיזה בניין זכוכית ״מה? מישהו פיתח מנוע V8 יעיל יותר? מהר, זירקו עליהם כסף, החתימו אותם על NDA ותנו ל-R&D שלושה ימים לעשות לזה אינטגרציה עם דגם האופניים שרצינו להשיק לפני החגים.״

חזרה לעמוד הראשי המאמר המלא

מערכת האייל הקורא אינה אחראית לתוכן תגובות שנכתבו בידי קוראים