החזירו אותם הביתה עכשיו

"לעקוב אחר כל תנועה": ניתוח שיח הפרטיות
של מפתחי תוכנה בקובצי README בפלטפורמת GitHub

כיום, מידע אישי הוא סחורה חיונית בשוק הדיגיטלי. יותר ויותר מוצרים מבוססים על חליפין של מידע עבור המשתמש תמורת מידע על המשתמש. לדוגמה, מיקום המשתמש תמורת ניווט ותחזית מזג אוויר, או היסטוריית רכישות תמורת המלצות רלוונטיות. כפועל יוצא מכך, מנהלי מוצר ומפתחים האחראים על עיצוב התוכנה הפכו לגורמים מרכזיים בהחלטה איזה מידע אישי של המשתמשים לאסוף, היכן לאחסן אותו, כיצד להגן עליו, והאם לשתף אותו עם גורמים מסחריים אחרים. במובן זה ניתן לראות במפתחים מתווכים (Frenkel, 2005), שעבודתם היום־יומית כרוכה בתרגום של נורמות וערכים חברתיים למוצרים מוחשיים.

למרות מעמדם המרכזי, החלטות הקידוד ופרקטיקות הפיתוח של מפתחים נותרות לרוב סמויות מעיני המשתמשים. הקוד שהם כותבים מתואר במקרים רבים כעבודת טלאים טכנולוגית (Bucher, 2016; Kitchin, 2017), קנייני במהותו ובלתי מובן לציבור (Pasquale, 2015). עם זאת, בשנים האחרונות מתרבים המחקרים המבקשים לחשוף תהליכי תיווך מורכבים אלה, ומשתמשים לשם כך במגוון מתודולוגיות, כגון אתנוגרפיה (למשל, Waldman, 2021), משימות למפתחים (למשל, Li et al., 2022), ראיונות (למשל, Peixoto et al., 2020), סקרים (למשל, Spiekermann et al., 2018) וניתוח שיח (למשל, Shilton & Greene, 2019).

מאמר זה שואף להעמיק בהבנת תפקידם של המפתחים כמתווכי פרטיות, סמוך ככל האפשר לנקודת המפגש בין התפיסה של מושג הפרטיות לבין מימושה בפועל בקוד. באמצעות ניתוח האופן שבו מפתחים מתארים את הקוד שהם כותבים בפלטפורמת שיתוף הקוד הפתוח GitHub, אנו מאירות הן את תהליכי התיווך — כיצד ערכים חברתיים מוטמעים במוצרים דיגיטליים — והן את המתחים הייחודיים הכרוכים בתרגום פרטיות לקוד, בתעשייה שאחד המנועים המרכזיים שלה הוא כריית נתונים וצבירתם.

רקע תיאורטי ושיטות מחקר

אם כן, כיצד מפתחים מתמודדים עם פרטיות, הן כמושג שנוי במחלוקת והן כשורות קוד מאתגרות? המחקר הנוכחי בוחן שאלה זו בהתבסס על שלוש מסגרות תיאורטיות מרכזיות: ראשית, המטריאליזם הדיגיטלי (Casemajor, 2015), הטוען כי "למידע הדיגיטלי יש תשתית חומרית" ומזמין מחקר של יחסי אדם־מכונה לשם הבנת התוכן שעל המסך. שנית, מסורת ה־Values in Design, הבוחנת מוצרים, אמונות והרגלי עבודה של מהנדסים במטרה לשפר את העיצוב מבחינה אתית ומעשית (Friedman, 1996; Nissenbaum, 2005). שלישית, מחקרים על עבודתם של מפתחים (Coleman, 2010; Kotliar, 2020; Takhteyev, 2012), המתמקדים באקוסיסטם ובהקשרים התרבותיים שבתוכם מפתחים, האקרים, מתכנתים ומהנדסים כותבים קוד ומשתפים אותו.

שיטת המחקר הנוכחי לניתוח שיח הפרטיות בקובצי README ב־GitHub משלבת בין ניתוח כמותני לניתוח איכותני, בדרך שמאפשרת להתמודד עם נתוני עתק תוך שמירה על עומק פרשני. במחקר נאספו ונותחו 59,898 קובצי README שנוצרו בשנים 2008–2020 אשר מכילים את המונח "פרטיות". תהליך איסוף הנתונים התבצע באמצעות ממשק ה־API של GitHub וסקריפטים ייעודיים ב־Python שחילצו מתוך הקבצים את הפסקאות הספציפיות המכילות את המונח "פרטיות", ואלו נשמרו כקובץ טקסט לניתוח אוטומטי. הניתוח האיכותני נערך על קובצי ה־README המקוריים, כפי שיוסבר בהמשך.

הניתוח הכמותני התבסס על תוכנת VOSviewer, המיישמת אלגוריתמים של עיבוד שפה טבעית והמחשה של דמיון (Visualization of Similarities) כדי ליצור מפת מילים המופיעות בסמיכות למונח "פרטיות". המפה מציגה את ה"שכנוּת הלקסיקלית" של המונח ומאפשרת לזהות אשכולות של מילים המופיעות יחד בטקסט. הניתוח חשף תשעה אשכולות, כאשר שניים מהם היו דומיננטיים במיוחד: אשכול "מדיניות פרטיות" (Privacy policy), אשר מכיל 13 מילים ומונחים הקשורים לתקנות ומדיניות; ואשכול "אבטחה" (Security), אשר כולל 68 מילים ומונחים הקשורים לאמצעים טכניים להגנת מידע.

אשכולות של נושאים בשיח הפרטיות בקבצים שבקורפוס: כל מעגל מייצג מילה או מונח, גודל המעגל מבטא את שכיחות המילה בקורפוס, הצבע מבטא את האשכול שאליו היא שייכת, והמרחק בין המעגלים מבטא את הרלוונטיות הלקסיקלית של המילה

בהתבסס על תוצאות הניתוח הכמותני, הרחבנו את הניתוח האיכותני כך שיכלול לא רק את המונח "פרטיות" עצמו, אלא גם מילים נוספות שזוהו באשכולות המרכזיים. במחקר נסקרו אלפי משפטים ומהם נבנה קורפוס תכליתי מכוון, אשר מתמקד בפסקאות המציגות טיעונים מפורשים לגבי פרטיות; הצהרות של מפתחים לגבי עמדות; קונפליקטים או סתירות בגישה לפרטיות; ודיונים בחלופות ליישום פרטיות בקוד. לצורך כך השתמשנו בכלי Voyant-tools.org להצגת משפטים ופסקאות בהקשרם המלא, תוך בחינת הטקסט לפני ואחרי מילות המפתח (עד 500 מילים).בהמשך לכך, הניתוח הפרשני המעמיק התבצע על קובצי README המקוריים בשלמותם, תוך זיהוי התייחסויות לשתי גישות מרכזיות לפרטיות: פרטיות באמצעות עיצוב (Privacy by Design), המדגישה אמצעים טכניים להגנה על מידע, ופרטיות באמצעות מדיניות (Privacy by Policy), המתמקדת בהסכמת משתמשים וציות לרגולציה. במסגרת זו בחנו מתחים וסתירות בין הצהרות של מחויבות לפרטיות לבין פתרונות קוד שעלולים לסכן אותה, וכן את השפעתן של פלטפורמות גדולות (כמו גוגל ואפל) ורגולציה (כמו GDPR – תקנת הגנת המידע הכללית של האיחוד האירופי) על יישומי פרטיות בקוד של מפתחים. מתודולוגיה משולבת זו אפשרה לחשוף את המורכבות והדואליות בהתייחסות של מפתחים לפרטיות בסביבת פיתוח תוכנה מעשית.

ממצאים מרכזיים על עמדות מפתחים כלפי פרטיות

בניתוח הקורפוס באמצעות VOSviewer זוהו תשעה אשכולות של מונחים המופיעים יחד עם המילה "פרטיות". הניתוח מתמקד בשני האשכולות הדומיננטיים, המייצגים את הנושאים המרכזיים בשיח המפתחים על פרטיות בקובצי README. האשכול הראשון (ה"ירוק", 13 מונחים) מתרכז ב"מדיניות פרטיות" ובמונחים הקשורים לשליטה במידע (כמו "אתר חיצוני" ו"אתר צד שלישי"). האשכול השני (ה"אדום", 68 מונחים) הוא בעל אופי טכני יותר; המונח השכיח ביותר בו הוא "אבטחה", ולצידו מופיעים מונחים טכניים רבים המתארים אמצעים להגנת מידע של משתמשים, כמו "אנונימיות", "הצפנה" ו"פרטיות דיפרנציאלית". ממצאים אלו, המפורטים גם בטבלה מטה ומודגמים חזותית באיור מעלה, מצביעים על שני צירים מרכזיים בשיח הפרטיות של מפתחים: היבטים של מדיניות וציות, והיבטים טכניים של אבטחה והגנה על מידע.

טבלה 1: מילים וצמדי מילים בשני האשכולות בסדר אלפביתי (בכל אשכול מודגשות המילים השכיחות ביותר)

Cluster Words in cluster

Green

content, control, external site, link, practice, privacy policy, responsibility, service, site, third party link, third party site, third-party service provider, website

Red

algorithm, anonymity, approach, attack, authentication, bot, camera, care, challenge, class, client, communication, cloud, coin, community, concept, concern, conversation, course, cryptocurrency, customer, data privacy, database, default, developer, differential privacy, encryption, Etherum, everyone, everything, Firefox, focus, freedom, friend, future, GDPR, GitHub, goal, government, group, identity, implementation, input, instance, IP address, key, log, machine, model, module, network, node, output, patient, privacy concern, privacy, protection, privacy risk, privacy setting, process, program, protocol, security, technique, technology, transaction

את השימוש במונח "מדיניות פרטיות" לצד מונחים כמו "צד שלישי" ו"אחריות" ניתן לראות כנובע מכך שקובצי README אלה מתמקדים בציות לכללים ולתקנות, ובדרכים ליידע משתמשים בנוגע לטיפול במידע שלהם. אוצר מילים זה מתקשר לגישת פרטיות באמצעות מדיניות (privacy by policy) ולפרק 3 בהנחיות תקנת הגנת המידע הכללית (GDPR). סעיף זה דורש שלמשתמשים "תינתן ההזדמנות לבצע בחירות לגבי שימושים משניים במידע האישי שלהם – אותם שימושים החורגים מהמטרה המקורית שלשמה סופקו הנתונים" (Spiekermann & Cranor, 2009, p. 77). גישה זו מייעצת למפתחים המעוניינים לאסוף מידע אישי למטרותיהם שלהם או למטרות של צדדים שלישיים, להסביר איזה מידע הם אוספים ואיזה שימוש ייתכן שייעשה בו, ולקבל מהמשתמשים הסכמה מדעת. השילוב בין המספר המצומצם יחסית של עיגולים (היינו, מילות המפתח שזוהו) באשכול זה ובין גודלם הגדול יחסית (שכיחות המילים), מצביע על חזרה על אותם מסרים ועל התמקדות בנושא של (אי־)העברת נתונים לצד שלישי.

האשכול האדום, לעומת זאת, הוא טכני יותר ועוסק באמצעים הננקטים להגנה על המידע של המשתמשים, כגון אנונימיזציה, אימות (אותנטיקציה), פרטיות דיפרנציאלית והצפנה. אוצר מילים זה מתקשר לגישת פרטיות באמצעות עיצוב (privacy by design) (Cavoukian, 2009) ולסעיף 25 בהנחיות ה־GDPR. גישה זו ממליצה למפתחים ליישם עקרונות פרטיות והגנת נתונים באמצעים טכניים כבר מהשלבים המוקדמים של פיתוח התוכנה, כדי להבטיח "רמות גבוהות יותר של פרטיות למשתמשים באופן אמין יותר, בלי שייאלצו לנתח את מדיניות הפרטיות או לנהל עליה משא ומתן" (Spiekermann & Cranor, 2009, p. 79). גודל עיגול האבטחה ואוצר המילים המעשי העשיר שלו מצביעים על כך שמפתחים נותנים עדיפות לאמצעי אבטחה כאשר הם מבקשים להגן על פרטיות המשתמשים. ההופעה המשותפת של אוצר מילים זה עם מונחים כמו "חופש", "סיכון לפרטיות" ו"דאגה לפרטיות" ממחישה את היחס בין ערכים חברתיים לקוד, כמו גם את המקום של GitHub כאתר לביטוי ולמחקר של יחסים אלה.

ניתוח האשכולות האוטומטי שימש בסיס לדגימת קובצי README עבור הניתוח האיכותני. עם זאת, בעוד הניתוח האוטומטי בוצע על קורפוס שייחד את המילה "פרטיות", כעת ביקשנו להרחיב את הניתוח למונחים אחרים הקשורים לפרטיות (Li et al., 2021), כדי להקיף לא רק טקסטים המשתמשים במילה מסוימת זו, אלא גם כאלה המכילים מילים המופיעות בטבלה 1, אף אם הן מופיעות בפסקאות שאינן מזכירות את המילה "פרטיות" כלל. לשם כך השתמשנו בממשק Key-Word-In-Context (KWIC) של Voyant-tools.org, המציג משפטים ופסקאות בטבלה שבה כל שורה מכילה טקסט המופיע לפני ואחרי המילים המנותחות. הממשק מאפשר לבחור את מספר המילים לפני ואחרי מילת המטרה, בדרך כלל בטווח של 5–50, אך עד 500 לקריאה יסודית יותר. באמצעות ממשק זה סקרנו אלפי משפטים המכילים את המילים משני האשכולות העיקריים, ועל בסיסם בנינו קורפוס תכליתי הממוקד בפסקאות שמציגות טיעון, הצהרת עמדה, קונפליקט או סתירה, או דיון בחלופות.

ניתוח של קורפוס זה מלמד שחלק מהאזכורים בקובצי README מבטאים מחויבות חזקה לשמירה על פרטיות המשתמשים, החל מ"אובססיה" אישית של המפתח ועד לכל "אמצעי סביר ובר ביצוע". מפתחים אלה מתרגמים את דאגתם לפרטיות המשתמשים באמצעות שימוש באמצעי הגנה חזקים בקוד, ומסבירים זאת למשל כך:

"לאלו שמכירים אותי, אתם יודעים שאני אובססיבי לגבי פרטיות. אני מאמין שכל פיתוח יישומים צריך לאמץ מלכתחילה מסגרת טובה המכוונת לפרטיות"; "השתמשנו באמצעי אבטחה בתקן התעשייה כדי להגן על המידע האישי שלך מפני גישה לא מורשית, חשיפה ציבורית, שימוש, שינוי, נזק או אובדן. ננקוט כל אמצעי סביר ובר ביצוע להגנה על מידע אישי, לדוגמה, הצפנת SSL מגינה על הדפדפן שלך מהחלפת נתונים […]".

בניגוד לממצאים קודמים, המצביעים על כך שמפתחים נוטים להתייחס בביטול לדאגות המשתמשים, בקובצי README ניתן לזהות אזכורים המכירים בהן ומעידים על כוונה לספק פתרונות:

"[…] לתת מענה לאלו המודאגים מהשימוש שנעשה באינטרנט במידע שלהם המאפשר זיהוי אישי [PII]".

זאת ועוד, מפתחים מודעים לאתגרים העומדים בפניהם בהגנה על פרטיות המשתמשים:

"[…] תשואה גבוהה יותר על השקעה בפרסום מגיעה לעיתים קרובות עם פשרות שליליות בקשר לפרטיות הצרכן או סיכוני אבטחה לדליפת נתונים אישיים".

לעיתים מודעות זו מוצגת כבלתי־נמנעת מבחינה טכנית:

"בכל פעם שנתונים פרטיים נשלחים אל שרת נוסף באינטרנט, ברגע שהחבילה נשלחת דרך ג'ונגל האינטרנט, אין שליטה על מי שם את ידו עליה. זה הטבע שלו".

עם זאת, מפתחים אחרים טוענים שחובתם להגן על פרטיות המשתמשים:

"זו אחריותך לכבד את פרטיות המשתמש"; "בניגוד לתפיסה המקובלת, מדיניות פרטיות אינה מיועדת לספקי שירותים – היא מיועדת למשתמשי השירות. משמעות הדבר היא שיש לנסח את מדיניות הפרטיות מתוך מחשבה *עליהם*".

אזכורים אחרים בקובצי README מתמקדים בחובה לציית לתקנות הפרטיות. כאן, פרטיות המשתמשים קשורה לא לעיצוב ארכיטקטורה מגוננת או לאתגרים הכרוכים בכך, אלא להסתמכות על הגנות משפטיות:

"חיוני שמשתמשים יבינו כיצד המידע שלהם יטופל, במיוחד לאור העדכונים האחרונים בחקיקה, כולל תקנות האיחוד האירופי האחרונות"; "הדרישה החוקית מעסקים היא להנגיש מדיניות פרטיות ברורה ומעודכנת המסבירה איזה שימוש ייעשה במידע האישי".

אזכורים כאלה בקובצי README עשויים לפרט כיצד נעשה שימוש במידע אישי או כיצד להתגבר על דרישות החוק – אם באמצעות ביטול הפרטיות כמושג או כפרקטיקה, ואם באמצעות שימוש בכלים טכנולוגיים המייצרים אוטומטית טקסטים של מדיניות פרטיות וממשקים הנראים כאילו הם עומדים בסטנדרטים הנדרשים:

"התוסף מוסיף אוטומטית דפי מדיניות משפטית ופרטיות לאתר שלך"; "עם התכונה הזו, אנו מספקים תהליך מודרך ליצירת מדיניות כזו לאתר שלך, בהתאם לתקנת הגנת הנתונים של האיחוד האירופי 2018".

אזכורים לפרטיות בהקשר של ציות מתורגמים לשימוש בתוספי מדיניות פרטיות מוכנים מראש בקוד, מסוג 'חבר והפעל' (plug-and-play).

כמו כן, בהתייחס לציות, חלק מהמפתחים מנסים לעקוף את המכשול הרגולטורי שמקשה על ניסיונותיהם לאסוף מידע פרטי של משתמשים. מתוך הנחה שמשתמשים אינם רוצים שהודעות הסכמה חוזרות ונשנות יפריעו להם, ושסביר שילחצו על כל לחצן כדי להסירן, הקוד יכול לאסוף מידע אישי בזמן שנראה כי הוא מציית לתקינה:

"עקבו אחר כל תנועה של המשתמשים שלכם. רק ודאו שאתם מספרים להם שאתם עושים זאת במדיניות הפרטיות שלכם"; "ברירת המחדל היא להציג לחצן 'קבל' ולחצן 'מדיניות הפרטיות' ולא לחצן 'דחה'. בדרך זו אנו מקבלים הסכמה משוערת, ומשתמשים אינם יכולים שלא להסכים לעוגיות (cookies)".

באופן אירוני, דווקא פלטפורמות האפליקציות הן שבסופו של דבר מאלצות מפתחים לאמץ את דרישות הפרטיות שלהן ואת תקנות הפרטיות המקומיות, פן יימנע מהם להשתלב בהן. בנסיבות אלה, מפתחים מצייתים לדרישות הפלטפורמות לא משום שהם רואים חשיבות בשמירה על פרטיות המשתמשים, אלא כדי להשיג את הפונקציונליות הרצויה להם:

"אני צריך תוכנת מדיניות פרטיות עבור פייסבוק כי אני משתמש ב־API שלהם"; "גוגל אמרו לי שצריך מדיניות פרטיות באפליקציה שלי, אחרת יסירו אותה מחנות האפליקציות, אז הוספתי".

עם זאת, קריאה רחבה יותר של הטקסטים מסבכת את ההבחנה הבינארית הזו, ומראה שאפילו מפתחים המצהירים על מחויבות איתנה לפרטיות פועלים באקוסיסטם שמאיים עליה ללא הרף. תיאורים רוויי דילמות כאלה (Billig, 1996) ניתן למצוא כאשר עוברים מפסקאות מסוימות לקבצים השלמים שבהם מפתחים מתווים את חזונם, לעיתים קרובות כפתרון למתח בין דרישות סותרות. לדוגמה, כחלק מ"מסע לעבר המצאה מחדש של הפרטיות מהיסוד", קובץ README נפתח באמירה:

"אנו מאמינים שכל אדם על פני כדור הארץ זכאי לגישה חופשית לכל מידע ותוכן שבעולם. דבר זה יושג באמצעות חילופי ערך תלת־כיווניים בין בעל מדיה המפרסם תוכן חינמי, צרכן הצורך אותו, ומפרסם המשלם עבור ההזדמנות להגיע לקהל של בעל המדיה […] החזון שלנו הוא עולם […] שבו פרטיות הצרכן, אבטחה וממשל משולבים במארג של בסיס הקוד, תוך מתן הכלים הנחוצים למשתמשים עסקיים לשמירה יעילה על גישה חינמית למידע ולתוכן העולמיים עבור כולם".

הקדמה זו לכאורה עוסקת ב"כל אדם על פני כדור הארץ", אך למעשה היא מתמקדת בפעילותה של מערכת כלכלית הנשענת על הנתונים של בני אדם אלה כמטבע (currency). שימוש בשיח של טרנספורמציה מאפשר למחברים לטשטש את העובדה שהקוד שלהם אינו מציע מוצא או היפוך תפקידים: אפילו בחזון האוטופי, המידע האישי של המשתמשים הוא עדיין המטבע, והשחקנים הפעילים הם עדיין בעלי המדיה והמפרסמים. המחברים אכן מציינים בהמשך הקובץ כי "אמצעים לשמירה על הפרטיות הם תחום המתפתח במהירות", אך אינם מסבירים אילו פתרונות הם מחפשים במסגרת תחום זה, או כיצד הפרויקט הנוכחי שלהם מטפל בפרצות שהם מבקרים במערכת.

ברמה יום־יומית יותר, קובץ אחר מתאר תכונה המאפשרת וידויים אנונימיים בפלטפורמות של רשתות חברתיות: "הפוסטים שלך אנונימיים. אף אחד לא ידע מי אתה. עם זאת, כדי למנוע שימוש לרעה בתכונה זו, ייתכן שחלק מהמנהלים יוכלו לגשת לפרטי המשתמש של הפוסטים […]" מתוך הכרה בפוטנציאל לשימוש לרעה, הקובץ מזהיר מיד את המנהלים: "אל תשתמש בתכונה זו כדי לעקוב אחר החברים שלך או לטובתך האישית […] באמצעות יישום השלבים הבאים, אתה מסכים להשתמש בתכונה זו בתום לב". כך, ההבטחה לווידוי אנונימי נשענת על אמונה בשיתוף הפעולה של המנהלים.

מפתח אחר מצהיר:

"אבטחה היא רק היבט אחד של הגנת הפרטיות, היא לא משלימה את הפאזל. לעיתים קרובות  יישומים, בין שהם מבוססי Web, מכשירים ניידים או אחרים, מיועדים לאסוף טלמטריה, נתונים סטטיסטיים, מאפייני שימוש ומידע המאפשר זיהוי אישי כגון שמות וכתובות מייל מטופסי הרשמה, כתובות IP, מידע דפדפן ועוגיות מעקב. לגבי האחרונות, אתרים רבים משתמשים ב־Google Analytics, שגם הוא עושה שימוש ".

זו אומנם הצהרה בעלת כוונות טובות, אך היא משמשת מבוא לתכונה שתאפשר אינטראקטיביות באתרים סטטיים באמצעות הטמעת אפשרות לתגובה בציוץ טוויטר: "פשוט הוסף את מזהה הציוץ [Tweet ID], שהוא חלק מכתובת ה־URL של טוויטר לציוץ […] ניתן להוסיף בקלות אייקונים של רשתות חברתיות שיוצגו בסרגל צד עבור כל הפלטפורמות הפופולריות". עם זאת, כפי שמראות גרליץ והלמונד (Gerlitz & Helmond, 2013), אייקונים כאלה מאפשרים לתרגם מעורבות משתמשים בכל מקום ברשת למספרים באמצעות מוני הקלקות, שהפלטפורמות יכולות לסחור בהם ולהשתמש בהם כמכשירי מעקב. לפיכך, אף שטקסט זה לכאורה דוחה תוספי תגובות כדי להגן על פרטיות המשתמשים, למעשה הוא מפקיד אותה בידיהם של טוויטר ושותפיה הסמויים (van der Vlist & Helmond, 2021).

An abbreviated version of: Levi-Eshkol, K., & Ribak, R. (2024). “Track every move”: Analyzing developers’ privacy discourse in GitHub README files. New Media & Society, 14614448241270541.

.



רשימת מקורות

Billig M (1996) Arguing and Thinking: A Rhetorical Approach to Social Psychology. Cambridge: Cambridge University Press.

Bucher, T. (2016). Neither black nor box: Ways of knowing algorithms. In S. Kubitschko & A. Kaun (Eds.), Innovative methods in media and communication research (pp. 81-98). Palgrave Macmillan.

Casemajor, N. (2015). Digital materialisms: Frameworks for digital media studies. Westminister Papers in Communication and Culture, 10(1), 4-17.

Cavoukian, A. (2009). Privacy by design: The 7 foundational principles. Information and privacy commissioner of Ontario, Canada, 5, 12.

Coleman, E. G. (2010). Ethnographic approaches to digital media. Annual Review of Anthropology, 39, 487-505.

Frenkel, M. (2005). The politics of translation: How state-level political relations affect the cross-national travel of management ideas. Organization, 12(2), 275–301.

Friedman, B. (1996). Value-sensitive design. Interactions, 3(6), 16-23.

Gerlitz, C., & Helmond, A. (2013). The like economy: Social buttons and the data-intensive web. New Media & Society, 15(8), 1348-1365.

Kitchin, R. (2017). Thinking critically about researching algorithms. Information, Communication & Society, 20(1), 14-29.

Kotliar, D. M. (2020). The return of the social: Algorithmic identity in an age of symbolic demise. New Media & Society, 22(7), 1152-1167.

Li, T., Reiman, K., Agarwal, Y., Cranor, L. F., & Hong, J. I. (2022). Understanding challenges for developers to create accurate privacy nutrition labels. In Proceedings of the 2022 CHI Conference on Human Factors in Computing Systems (pp. 1-24).

Nissenbaum, H. (2005). Values in technical design. Encyclopedia of science, technology, and ethics (pp. 66-70).

Pasquale, F. (2015). The black box society: The secret algorithms that control money and information. Harvard University Press.

Peixoto, M., Ferreira, D., Cavalcanti, M., Silva, C., Vilela, J., Araújo, J., & Gorschek, T. (2020). On understanding how developers perceive and interpret privacy requirements research preview. In Requirements Engineering: Foundation for Software Quality: 26th International Working Conference, REFSQ 2020, Pisa, Italy, March 24–27, 2020, Proceedings 26 (pp. 116-123). Springer.

Shilton, K., & Greene, D. (2019). Linking platforms, practices, and developer ethics: Levers for privacy discourse in mobile application development. Journal of Business Ethics, 155(1), 131-146.

Spiekermann, S., & Cranor, L. F. (2009). Engineering privacy. IEEE Transactions on Software Engineering, 35(1), 67-82.

Spiekermann, S., Korunovska, J., & Langheinrich, M. (2018). Inside the organization: Why privacy and security engineering is a challenge for engineers. Proceedings of the IEEE, 107(3), 600-615.

Takhteyev, Y. (2012). Coding places: Software practice in a South American city. MIT Press.

van der Vlist, F. N., & Helmond, A. (2021). How partners mediate platform power: Mapping business and data partnerships in the social media ecosystem. Big Data & Society, 8(1), 20539517211025061.

Waldman, A. E. (2021). Industry unbound: The inside story of privacy, data, and corporate power. Cambridge University Press.

אודות פרופ' רבקה ריבק וקרן לוי־אשכול

פרופ' רבקה ריבק היא חברת סגל בחוג לתקשורת באוניברסיטת חיפה. המחקר שלה עוסק בשימוש בטכנולוגיות תקשורת והמנעות מהן, בפרטיות בקרב מפתחים ובפרקטיקות חדשות של תשתית, דיגיטציה וצילום. המחקר הנוכחי הוא חלק מהפרוייקט "פרטיות בקהילות מקומיות וגלובליות של מפתחים" (מס' 651/20), שנתמך על ידי הקרן הלאומית למדע.

גב' קרן לוי-אשכול משלימה את עבודת הדוקטור בחוג לתקשורת באוניברסיטת חיפה. המחקר שלה מתמקד בתרגום של תפיסות הפרטיות של מפתחים לקוד שהם כותבים, והיא משתמשת במודלים של ניתוח שפה טבעית (NLP) לשם ניתוח מאגרים בפלטפורמת שיתוף הקוד הפתוח גיטהאב.