Ir al contenido principal

Abogado de Johnny Depp desacredita testigo experto en redes sociales

Esta audiencia fue obtenida del siguiente hipervínculo:

https://www.youtube.com/watch?v=ANIR9dENXB0

En la misma se observan varias particularidades relacionadas con la interacción entre el abogado defensor y el testigo experto. Algunas de las características más notables son las siguientes:

  1. Credibilidad del Testigo: El abogado de la parte demandante intenta socavar la credibilidad del testigo al señalar que esta es su primera vez testificando en un caso de análisis forense estadístico de redes sociales, lo que implica una falta de experiencia en el tribunal. También menciona que el testigo no ha trabajado previamente en un caso de difamación. A pesar de su falta de experiencia como testigo, el perito admite que ha trabajado como consultor en casos anteriores.

  2. Compensación: El abogado resalta que el testigo está siendo compensado por su trabajo, lo que puede crear una percepción de que el testimonio está influenciado por un incentivo financiero, lo cual es una táctica común para cuestionar la imparcialidad del experto.

  3. Limitaciones en el Alcance del Análisis: El testigo admite que no ha ofrecido una opinión sobre la difusión de los artículos que contienen declaraciones atribuidas a Mr. Waldman, ni sobre cuántas personas vieron realmente las declaraciones. Además, no proporciona una opinión sobre el contenido exacto de los artículos o las razones por las que los hashtags analizados se utilizaron. Esto limita la fuerza de su testimonio en cuanto a establecer conexiones claras entre las declaraciones y el daño causado.

  4. Confusión en el Testimonio: El testigo parece tener dificultades para recordar detalles importantes, como cuándo comenzaron a aparecer ciertos hashtags. Esto es utilizado por el abogado defensor para cuestionar su nivel de preparación y precisión en el análisis.

  5. Métodos de Análisis: El testigo enfatiza que su análisis se basa en correlaciones estadísticas y no en la inferencia de las intenciones detrás de los tweets o hashtags. Sin embargo, el abogado lo presiona para admitir que los hashtags existían antes de las declaraciones de Waldman, lo que debilita la conexión causal que el testigo intenta establecer.

  6. Adopción de Opiniones de Otros Expertos: El testigo menciona que basó parte de su análisis en la opinión de otro experto, Mr. Banya, lo que el abogado señala como una posible inconsistencia, dado que esa opinión aún no se ha presentado formalmente en el juicio. Esto genera dudas sobre si el testigo está ofreciendo un análisis original o simplemente repitiendo las opiniones de otro.

  7. Enfoque en las Correlaciones: El testigo subraya que su trabajo consistía en establecer correlaciones, no en determinar las causas detrás del uso de los hashtags. A pesar de esto, el abogado señala que la correlación no necesariamente implica causalidad, lo que podría debilitar la fuerza de su análisis.

En cuanto a la confianza del testigo en sus opiniones, el perito declaró que sus conclusiones se ofrecen con "un grado razonable de certeza científica". Sin embargo, esta confianza puede verse debilitada por las limitaciones que admitió tener en cuanto al alcance de su análisis y la falta de evidencia directa que conecte los hashtags con las declaraciones difamatorias específicas de Waldman.

A continuación la transcripción de la audiencia.

1
00:00:00,229 --> 00:00:03,450
[SPEAKER_01]: ¿Y con qué nivel de confianza mantiene las opiniones que acaba de proporcionar al jurado?
2
00:00:04,311 --> 00:00:06,071
[SPEAKER_01]: Con un grado razonable de certeza científica.
3
00:00:06,891 --> 00:00:07,632
[SPEAKER_01]: Gracias, Sr. Schnell.
4
00:00:07,652 --> 00:00:08,452
[SPEAKER_01]: No tengo más preguntas.
5
00:00:08,472 --> 00:00:09,572
[SPEAKER_02]: Muy bien, contrainterrogatorio.
6
00:00:23,897 --> 00:00:27,739
[SPEAKER_00]: Señor, esta es la primera vez que testifica como experto.
7
00:00:29,045 --> 00:00:54,826
[SPEAKER_00]: como en el campo del análisis estadístico y forense de las redes sociales, ¿no? He asesorado en litigios al respecto, pero nunca llegó a un testimonio. Es correcto, este es su primer testimonio. Sí, y esto es así. Y nunca antes ha estado involucrado en un caso de difamación. Es correcto. De acuerdo, y está siendo compensado por su tiempo aquí hoy y el trabajo que hizo.
8
00:00:55,330 --> 00:00:57,291
[SPEAKER_02]: Berkeley Research Group está siendo compensado, sí.
9
00:00:57,631 --> 00:00:58,912
[SPEAKER_00]: ¿A 600 dólares la hora?
10
00:00:59,312 --> 00:01:00,172
[SPEAKER_02]: Eso es lo que les pagan.
11
00:01:00,493 --> 00:01:00,813
[SPEAKER_02]: Cierto.
12
00:01:02,874 --> 00:01:08,356
[SPEAKER_00]: Y sabes que están demandando al señor Depp por declaraciones supuestamente difamatorias.
13
00:01:09,377 --> 00:01:10,898
[SPEAKER_00]: ¿Cuáles son las fechas de esas declaraciones?
14
00:01:12,819 --> 00:01:22,383
[SPEAKER_02]: Tengo entendido que hubo algo alrededor del 8 de abril, creo que el 27 de abril, y...
15
00:01:24,642 --> 00:01:26,783
[SPEAKER_02]: El 24 de junio, en algún momento a finales de junio.
16
00:01:27,023 --> 00:01:27,363
[SPEAKER_00]: De acuerdo.
17
00:01:30,545 --> 00:01:34,366
[SPEAKER_00]: ¿Y dónde crees que se publicaron esas declaraciones?
18
00:01:35,747 --> 00:01:36,467
[SPEAKER_02]: En los medios públicos.
19
00:01:38,188 --> 00:01:40,709
[SPEAKER_00]: ¿En algún artículo en particular?
20
00:01:42,850 --> 00:01:43,891
[SPEAKER_02]: No lo había considerado.
21
00:01:45,231 --> 00:01:52,655
[SPEAKER_00]: ¿Entonces no está ofreciendo una opinión sobre cuán ampliamente se leyeron los artículos que contienen esas declaraciones?
22
00:01:53,387 --> 00:01:53,887
[SPEAKER_02]: Eso es correcto.
23
00:01:54,287 --> 00:02:01,930
[SPEAKER_00]: ¿Y no está ofreciendo una opinión sobre cuántas personas vieron realmente el lenguaje que se le ha atribuido al Sr. Waldman?
24
00:02:02,750 --> 00:02:06,871
[SPEAKER_02]: Solo un número mínimo de personas que podrían haberlo visto según los tuits que lo mencionaban.
25
00:02:07,511 --> 00:02:09,432
[SPEAKER_00]: De acuerdo.
26
00:02:10,532 --> 00:02:16,674
[SPEAKER_00]: ¿Y ni siquiera sabes dónde aparecen esas referencias en los artículos?
27
00:02:18,295 --> 00:02:18,955
[SPEAKER_02]: No estoy seguro de lo que quieres decir.
28
00:02:19,706 --> 00:02:22,428
[SPEAKER_00]: Hay declaraciones del señor Waldman que aparecen en los artículos.
29
00:02:22,468 --> 00:02:23,949
[SPEAKER_00]: ¿Entiendes que sí?
30
00:02:24,369 --> 00:02:27,771
[SPEAKER_00]: ¿Sabes en qué parte de los artículos aparecen las declaraciones?
31
00:02:28,812 --> 00:02:37,517
[SPEAKER_00]: He visto los artículos y he visto dónde aparecen y dónde, en general, aparecen en la mitad del final.
32
00:02:37,657 --> 00:02:38,257
[SPEAKER_00]: ¿Qué te parece?
33
00:02:39,098 --> 00:02:40,438
[SPEAKER_02]: No estoy seguro de eso.
34
00:02:40,458 --> 00:02:43,400
[SPEAKER_02]: Me refiero a los que miré en el sexto y séptimo.
35
00:02:43,440 --> 00:02:46,042
[SPEAKER_02]: Creo que estaban en la cima.
36
00:02:46,527 --> 00:02:46,707
[SPEAKER_00]: Muy bien.
37
00:02:47,247 --> 00:02:53,728
[SPEAKER_00]: Entonces, testificó que revisó una serie de hashtags que consideró negativos hacia la Sra.
38
00:02:54,208 --> 00:02:54,408
[SPEAKER_00]: Hurd.
39
00:02:56,169 --> 00:02:56,529
[SPEAKER_00]: ¿Eso es correcto?
40
00:02:56,669 --> 00:02:56,889
[SPEAKER_02]: Sí.
41
00:02:57,769 --> 00:03:04,350
[SPEAKER_00]: Y los cuatro que elegiste, al menos los negativos, son Justicia para Johnny Depp.
42
00:03:05,610 --> 00:03:06,530
[SPEAKER_00]: Ese es uno de ellos, ¿verdad?
43
00:03:06,770 --> 00:03:07,171
[SPEAKER_02]: Así es.
44
00:03:08,351 --> 00:03:09,591
[SPEAKER_00]: Amber Hurd es una abusadora.
45
00:03:11,031 --> 00:03:11,651
[SPEAKER_00]: ¿Esa es una de ellas?
46
00:03:12,031 --> 00:03:12,631
[SPEAKER_02]: Esa es una de ellas.
47
00:03:13,552 --> 00:03:15,132
[SPEAKER_00]: Simplemente no nos agradas, Amber.
48
00:03:16,127 --> 00:03:16,627
[SPEAKER_00]: ¿Esa es una de ellas?
49
00:03:16,947 --> 00:03:17,568
[SPEAKER_02]: Esa es una de ellas.
50
00:03:17,828 --> 00:03:19,789
[SPEAKER_00]: Y la última fue Amber Turd, ¿verdad?
51
00:03:20,589 --> 00:03:21,730
[SPEAKER_02]: Esa es otra.
52
00:03:22,190 --> 00:03:22,510
[SPEAKER_00]: De acuerdo.
53
00:03:23,791 --> 00:03:37,318
[SPEAKER_00]: Y estos cuatro hashtags que identificaste y buscaste, no crees que tengan ninguna conexión, o testificas que no tienes conexión con estas tres declaraciones de Waldman.
54
00:03:39,419 --> 00:03:42,501
[SPEAKER_00]: Los hashtags no están conectados con Waldman, ¿verdad?
55
00:03:43,200 --> 00:03:51,987
[SPEAKER_02]: Bueno, hice un análisis adicional que mostró cuántos de ellos tenían a Waldman conectado, y descubrí que uno de cada cuatro lo tenía.
56
00:03:52,948 --> 00:03:53,208
[SPEAKER_00]: Correcto.
57
00:03:54,429 --> 00:03:59,834
[SPEAKER_00]: Pero cuando le tomaron declaración, le preguntaron si estos hashtags estaban relacionados.
58
00:04:00,794 --> 00:04:02,636
[SPEAKER_00]: Estos hashtags en particular estaban relacionados.
59
00:04:03,550 --> 00:04:06,612
[SPEAKER_00]: Con alguna de las declaraciones de la mujer y usted dijo que no en ese momento.
60
00:04:07,173 --> 00:04:25,767
[SPEAKER_02]: Dije más de lo que... dije... dije que no sabía y luego... y luego dije que estoy basando mi... estoy mirando la opinión del Sr. Banya donde dice que estarían si hubiera un gran número y estoy adoptando su opinión y coincidiendo con él en que deben estar conectados
61
00:04:27,508 --> 00:04:52,994
[SPEAKER_00]: Entonces, estás adoptando una opinión que nadie más ha emitido en este caso. Bueno, sé que el Sr. Banya ha testificado. Bien, lo que estoy diciendo es que sé que el Sr. Banya... La declaración del Sr. Banya dice que se espera que llegue a esa opinión. Pero, ¿la única persona que ha expresado esta opinión hoy en esta sala es tú?
62
00:04:53,014 --> 00:04:53,034
Yo
63
00:04:53,772 --> 00:04:54,392
[SPEAKER_02]: No lo sé.
64
00:04:54,412 --> 00:04:55,253
[SPEAKER_02]: No he visto todo.
65
00:04:55,313 --> 00:04:56,313
[SPEAKER_02]: He observado un poco.
66
00:04:56,434 --> 00:04:58,415
[SPEAKER_00]: Entonces, ¿estás adoptando tu propia opinión?
67
00:04:59,875 --> 00:05:02,837
[SPEAKER_02]: No, estoy adoptando la opinión que leí en la declaración del Sr. Banya.
68
00:05:03,157 --> 00:05:05,879
[SPEAKER_00]: ¿Y esa no es la opinión que tenías durante tu declaración?
69
00:05:07,560 --> 00:05:13,723
[SPEAKER_02]: Creo que hice referencia en mi declaración a lo que dijo el Sr. Banya y que estoy de acuerdo con ello.
70
00:05:15,764 --> 00:05:22,408
[SPEAKER_00]: Y usted indicó en su declaración que no tuvo en cuenta las declaraciones hechas en los medios.
71
00:05:23,319 --> 00:05:23,639
[SPEAKER_00]: ¿Correcto?
72
00:05:24,099 --> 00:05:24,559
[SPEAKER_02]: ¿Hecho en qué?
73
00:05:24,619 --> 00:05:25,039
[SPEAKER_02]: No pude escuchar.
74
00:05:25,580 --> 00:05:30,061
[SPEAKER_00]: Dijiste que no tomaste en cuenta en tu análisis las declaraciones hechas en los medios.
75
00:05:30,101 --> 00:05:30,401
[SPEAKER_02]: Medios.
76
00:05:32,241 --> 00:05:38,402
[SPEAKER_02]: Sí, en el análisis donde reuní datos y decidí qué datos reunir, no tomé en cuenta las declaraciones de los medios.
77
00:05:38,422 --> 00:05:39,823
[SPEAKER_00]: Muy bien.
78
00:05:40,323 --> 00:05:50,105
[SPEAKER_00]: Entonces, usted miró los datos, produjo gráficos, hizo análisis relacionados con los datos, pero no tenía ninguna razón en el momento en que hizo esto
79
00:05:50,629 --> 00:05:52,449
[SPEAKER_00]: para considerar ninguna declaración en particular.
80
00:05:52,850 --> 00:05:53,470
[SPEAKER_00]: ¿No es cierto?
81
00:05:54,610 --> 00:05:55,030
[SPEAKER_02]: Es cierto.
82
00:05:55,050 --> 00:06:02,052
[SPEAKER_02]: Creo que es una metodología científica adecuada para recopilar primero la mayor cantidad de datos posible y luego analizarlos en profundidad.
83
00:06:02,072 --> 00:06:02,872
[SPEAKER_00]: De acuerdo.
84
00:06:03,972 --> 00:06:15,135
[SPEAKER_00]: Y los datos de Twitter que recopiló muestran que los cuatro hashtags que identificó existían antes de que el Sr. Waldman hiciera la primera declaración en abril de 2020, ¿verdad?
85
00:06:16,635 --> 00:06:17,156
[SPEAKER_02]: Eso es correcto.
86
00:06:18,016 --> 00:06:18,776
[SPEAKER_02]: En muy pocos casos.
87
00:06:19,774 --> 00:06:24,097
[SPEAKER_00]: Pero Justicia para Johnny Depp existe desde 2013, ¿correcto?
88
00:06:25,919 --> 00:06:26,539
[SPEAKER_02]: Eso suena correcto.
89
00:06:26,799 --> 00:06:26,940
[SPEAKER_00]: Sí.
90
00:06:28,160 --> 00:06:32,784
[SPEAKER_00]: Amber Heard es una abusadora, y Amber Turd apareció por primera vez en 2016, ¿correcto?
91
00:06:33,945 --> 00:06:35,005
[SPEAKER_02]: No lo recuerdo, en realidad.
92
00:06:35,206 --> 00:06:35,406
[SPEAKER_00]: Correcto.
93
00:06:36,587 --> 00:06:43,512
[SPEAKER_00]: ¿Recuerdas si había alguna parte de la declaración del Sr. Waldman que hiciera referencia a Amber Turd?
94
00:06:44,993 --> 00:06:45,553
[SPEAKER_02]: No que yo haya visto.
95
00:06:45,573 --> 00:06:47,835
[SPEAKER_00]: Correcto.
96
00:06:48,499 --> 00:06:50,441
[SPEAKER_00]: La gente puede formarse una opinión negativa de la Sra.
97
00:06:50,481 --> 00:06:53,504
[SPEAKER_00]: sin leer las declaraciones del Sr. Waldman, ¿correcto?
98
00:06:54,485 --> 00:06:57,448
[SPEAKER_02]: La gente puede formarse una opinión negativa de alguien sin leer nada.
99
00:06:57,548 --> 00:06:58,109
[SPEAKER_02]: Eso es correcto.
100
00:06:59,610 --> 00:07:04,716
[SPEAKER_00]: ¿Y no consideró si había publicidad negativa en torno a la Sra. Hurd además de las declaraciones de Waldman?
101
00:07:04,776 --> 00:07:06,838 [ SPEAKER_00]: Bueno, lo que hice fue informar sobre la correlación 102 00 :07:07,739 --> 00:07:11,603 [SPEAKER_02]: con estos hashtags y ciertos términos de búsqueda en particular. 104 00:07:16,997 --> 00:07:20,941 [SPEAKER_02]: No estaba tratando de leer la mente de nadie sobre por qué los usan. 105 00:07:24,284 --> 00:07:34,414 [SPEAKER_00]: No se formó ninguna opinión de que de los millones de tweets, más de un millón de tweets que miró, estuvieran conectados de alguna manera con las declaraciones del Sr. Waldman. 106 00:07:35,458 --> 00:07:36,679 [SPEAKER_02]: Al final lo hice, sí. 107 00:07:36,879 --> 00:07:44,724

















[SPEAKER_00]: ¿Lo hizo finalmente después de leer el informe de otra persona en relación con un testimonio que no se ha dado aquí?
108
00:07:45,405 --> 00:07:46,626
[SPEAKER_02]: Lo hice antes de mi declaración.
109
00:07:46,646 --> 00:07:47,226
[SPEAKER_00]: De acuerdo.
110
00:07:48,507 --> 00:07:52,410
[SPEAKER_00]: Tiene un demostrativo que el abogado le tocó.
111
00:07:52,430 --> 00:07:56,653
[SPEAKER_00]: ¿Podemos presentar nuevamente a los demandantes 1901?
112
00:07:58,674 --> 00:07:59,475
[SPEAKER_00]: Esto es tuyo, ¿verdad?
113
00:07:59,795 --> 00:08:00,135
[SPEAKER_02]: Correcto.
114
00:08:00,395 --> 00:08:01,376
[SPEAKER_00]: Sí.
115
00:08:03,737 --> 00:08:10,343
[SPEAKER_00]: Los picos más grandes, con diferencia los picos más grandes aquí, ¿son atribuibles a qué hashtag?
116
00:08:12,204 --> 00:08:13,546
[SPEAKER_02]: El hashtag Justicia para Johnny Japp.
117
00:08:14,006 --> 00:08:14,146
[SPEAKER_00]: Sí.
118
00:08:14,847 --> 00:08:22,233
[SPEAKER_00]: Y hay picos que existían bastante antes de la declaración del Sr. Waldman.
119
00:08:22,714 --> 00:08:24,075
[SPEAKER_00]: ¿Un abogado le preguntó sobre eso?
120
00:08:24,675 --> 00:08:25,176
[SPEAKER_02]: Uno de ellos lo hizo.
121
00:08:25,216 --> 00:08:27,878
[SPEAKER_02]: Esa fue la fecha en la que el Sr. Waldman filtró la cinta de audio.
122
00:08:28,819 --> 00:08:29,820
[SPEAKER_00]: ¿El pico más grande?
123
00:08:31,485 --> 00:08:33,706
[SPEAKER_00]: fue antes de las declaraciones.
124
00:08:34,666 --> 00:08:36,327
[SPEAKER_02]: Correcto, la fecha en que filtró el audio.
125
00:08:36,387 --> 00:08:48,971
[SPEAKER_00]: Y luego hubo muchas declaraciones, o hay muchos hashtags o usos del hashtag que siguen a las declaraciones.
126
00:08:51,352 --> 00:08:52,472
[SPEAKER_02]: Tendrás que ser más específico.
127
00:08:53,353 --> 00:08:56,754
[SPEAKER_00]: Bueno, entonces miraste un millón dos de estos hashtags, ¿verdad?
128
00:08:56,994 --> 00:08:57,174
[SPEAKER_02]: Correcto.
129
00:08:59,249 --> 00:09:05,552
[SPEAKER_00]: En tu cuadro, ¿no pertenecían 980.000 de estos más a Justicia para Johnny Depp?
130
00:09:07,512 --> 00:09:08,413
[SPEAKER_02]: Eso suena bastante bien.
131
00:09:08,433 --> 00:09:10,954
[SPEAKER_02]: Tendrías que mostrármelo, pero te creo.
132
00:09:11,274 --> 00:09:11,494
[SPEAKER_00]: De acuerdo.
133
00:09:12,194 --> 00:09:15,476
[SPEAKER_00]: Pero la gran mayoría de ellos eran Justicia para Johnny Depp.
134
00:09:17,196 --> 00:09:18,037
[SPEAKER_02]: La mayoría de ellos lo eran.
135
00:09:18,297 --> 00:09:21,918
[SPEAKER_00]: Bueno, ¿no era la mayoría tan grande que tuviste que dibujar otro gráfico?
136
00:09:23,699 --> 00:09:25,860
[SPEAKER_02]: La razón para dibujar otro gráfico es porque...
137
00:09:27,281 --> 00:09:31,484
[SPEAKER_02]: los números eran altos en puntos específicos, por lo que no se podían ver los otros hashtags.
138
00:09:32,205 --> 00:09:32,445
[SPEAKER_00]: Correcto.
139
00:09:32,985 --> 00:09:43,353
[SPEAKER_00]: Literalmente, este es tu gráfico, y toda la otra actividad en la parte inferior apenas se puede ver en comparación con el hashtag justicia para Johnny Depp.
140
00:09:44,373 --> 00:09:44,554
[SPEAKER_02]: Correcto.
141
00:09:44,594 --> 00:09:54,581
[SPEAKER_02]: Como testifiqué, apenas se pueden ver debido a los picos en el hashtag justicia para Johnny Depp, pero cuando miras el otro gráfico, puedes ver que esos otros siguen siendo números muy grandes.
142
00:09:54,949 --> 00:09:59,790
[SPEAKER_00]: Entonces, ¿no estás ofreciendo ninguna opinión sobre qué causó estos picos?
143
00:10:00,670 --> 00:10:01,130
[SPEAKER_02]: Es correcto.
144
00:10:01,410 --> 00:10:01,590
[SPEAKER_00]: Correcto.
145
00:10:01,850 --> 00:10:04,991
[SPEAKER_00]: ¿Entonces no estás opinando sobre por qué están ahí estos picos?
146
00:10:05,851 --> 00:10:07,091
[SPEAKER_02]: Solo estoy hablando de correlación.
147
00:10:07,451 --> 00:10:07,631
[SPEAKER_00]: Correcto.
148
00:10:08,011 --> 00 :10:10,172
[SPEAKER_00]: Estás hablando de una conexión matemática.
149
00:10:10,532 --> 00:10:10,872
[SPEAKER_02]: Así es.
150
00:10:11,072 --> 00:10:11,252
[SPEAKER_02]: Correcto.
151
00:10:13,112 --> 00:10:22,674
[SPEAKER_00]: ¿Y no pretendes estar en la cabeza de nadie para saber por qué hizo una publicación en particular con un hashtag en particular?
152
00:10:23,314 --> 00:10:23,714
[SPEAKER_02]: Es correcto. 153 00:10:23,734 --> 00:10:24,314 [SPEAKER_02
] : Está bien. 154 00:10:27,486 --> 00:10:31,949 [SPEAKER_00]: Hay un segundo pico que parece ser en julio de 2020. 155





00:10:35,753 --> 00:10:38,195
[SPEAKER_02]: Sí, el puntero apuntaba a otro, pero sí.
156
00:10:38,655 --> 00:10:40,116
[SPEAKER_00]: Sí.
157
00:10:42,098 --> 00:10:45,601
[SPEAKER_00]: ¿Sabías que hubo un juicio en el Reino Unido en 2020?
158
00:10:46,581 --> 00:10:46,942
[SPEAKER_02]: Lo sé.
159
00:10:47,222 --> 00:10:47,762
[SPEAKER_00]: ¿Y en julio?
160
00:10:50,785 --> 00:10:52,266
[SPEAKER_02]: ¿Estás diciendo que fue en julio?
161
00:10:52,566 --> 00:10:55,629
[SPEAKER_00]: No, pero en el momento de ese pico...
162
00:10:56,616 --> 00:11:00,499
[SPEAKER_00]: hubo publicidad en torno al ensayo, ¿correcto?
163
00:11:02,080 --> 00:11:03,421
[SPEAKER_02]: No sé cuánta publicidad hubo.
164
00:11:03,682 --> 00:11:04,943
[SPEAKER_02]: Sé que el juicio estaba en marcha en ese momento.
165
00:11:04,963 --> 00:11:05,343
[SPEAKER_00]: Está bien.
166
00:11:11,488 --> 00:11:22,757
[SPEAKER_00]: Hay varias cosas señaladas en tu gráfico en relación con fechas específicas: 17 de diciembre, 11 de febrero,
167
00:11:23,874 --> 00:11:25,255
[SPEAKER_00]: 14 de febrero.
168
00:11:25,275 --> 00:11:25,956
[SPEAKER_00]: ¿Ves todo eso?
169
00:11:26,276 --> 00:11:26,537
[SPEAKER_02]: Sí.
170
00:11:27,297 --> 00:11:39,569
[SPEAKER_00]: Y su cuadro no hace ninguna referencia ni identifica las fechas de ninguna de las declaraciones de Waldman, ¿verdad, señor?
171
00:11:41,110 --> 00:11:42,731
[SPEAKER_02]: No, no las menciona, si es eso lo que estás preguntando.
172
00:11:43,272 --> 00:11:48,277
[SPEAKER_00]: Nombra muchas otras fechas, pero nada relacionado con las declaraciones de Waldman.
173
00:11:48,537 --> 00:11:48,837
[SPEAKER_02]: Correcto.
174
00:11:48,857 --> 00:11:49,698
[SPEAKER_02]: Está bien.
175
00:11:55,978 --> 00:11:56,699
[SPEAKER_00]: Está bien.
176
00:11:56,859 --> 00:12:03,644
[SPEAKER_00]: En algún momento, realizaste búsquedas de términos de búsqueda adicionales, engaño, fraude.
177
00:12:05,326 --> 00:12:06,446
[SPEAKER_00]: Creo que dijiste falso.
178
00:12:09,209 --> 00:12:16,174
[SPEAKER_00]: Y luego no sabes por qué aparecieron esos términos, ¿verdad?
179
00:12:18,616 --> 00:12:19,897
[SPEAKER_02]: No estoy seguro de qué quieres decir con esa pregunta.
180
00:12:21,398 --> 00:12:21,918
[SPEAKER_02]: ¿Me estás preguntando a mí?
181
00:12:21,958 --> 00:12:22,259
[SPEAKER_02]: No...
182
00:12:24,935 --> 00 :12:33,818
[SPEAKER_00]: No pudiste realizar un análisis científico del motivo por el que esos términos aparecían en los tuits que estabas viendo.
183
00:12:34,419 --> 00:12:34,579
[SPEAKER_02]: Correcto.
184
00:12:34,639 --> 00 :12:36,539
[SPEAKER_02]: Solo pude mostrar una correlación matemática.
185 00:12:36,759 --> 00:12:36,859 [SPEAKER_00]: Correcto. 186 00:12:37,140 --> 00:12 :41,161 [SPEAKER_00]: Podrías mostrar una correlación, pero no tienes idea de por qué están ahí. 187 00:12:41,921 --> 00:12:43,022 [SPEAKER_02]: No puedo entrar en la cabeza de las personas. 188








00:12:43,342 --> 00:12:43,522
[SPEAKER_00]: Correcto.
189
00:12:44,342 --> 00:12:51,905
[SPEAKER_00]: Y solo porque el tuit contenga uno de los términos no significa que el tuit haya sido de alguna manera provocado por el Sr. Waldman, ¿verdad?
190
00:12:53,476 --> 00:12:55,957
[SPEAKER_02]: Bueno, hay algunas cosas que busqué.
191
00:12:55,997 --> 00:13:00,978
[SPEAKER_02]: Los que acabas de mencionar y luego los términos Waldman y Waldmignon.
192
00:13:01,119 --> 00:13:09,081
[SPEAKER_02]: Entonces, ya sabes, no es tan exagerado decir que está relacionado con el Sr. Waldman si es su nombre y Waldmignon o Minion.
193
00:13:09,101 --> 00:13:12,042
[SPEAKER_00]: Espera un minuto.
194
00:13:12,462 --> 00:13:14,723
[SPEAKER_00]: ¿El nuevo estándar no es tan exagerado?
195
00:13:15,223 --> 00:13:15,363
No.
196
00:13:16,324 --> 00:13:17,544
[SPEAKER_00]: Estoy tratando de hablar... ¿Verdad?
197
00:13:17,584 --> 00:13:17,824
[SPEAKER_00]: Sí.
198
00:13:17,884 --> 00:13:18,324
[SPEAKER_00]: Está bien.
199
00:13:18,344 --> 00:13:18,384
[SPEAKER_00]: Entonces...
200
00:13:21,186 --> 00:13:27,050
[SPEAKER_00]: No estás sugiriendo que sabes por qué el nombre del Sr. Waldman aparece en cualquiera de estos tuits.
201
00:13:29,632 --> 00:13:37,598
[SPEAKER_02]: Bueno, si miras los tuits que tienen a Waldman Young, y miré una muestra grande de ellos.
202
00:13:40,680 --> 00:13:43,922
[SPEAKER_00]: Una muestra grande fue de 2000 de un millón de dos.
203
00:13:44,594 --> 00:13:46,315
[SPEAKER_02]: No, miré más que eso, de estos.
204
00:13:46,636 --> 00:13:50,899
[SPEAKER_02]: Pero esa es otra cosa que no esperaría que fuera objeto de controversia.
205
00:13:52,340 --> 00:14:01,987
[SPEAKER_02]: Sabes, cuando la gente dice que son parte de los Waldminions o cosas así, esperaría que todos estuvieran de acuerdo sin discutir que tiene que ver con el Sr. Waldman.
206
00:14:02,447 --> 00:14:04,749
[SPEAKER_00]: Nadie preguntó si tenía que ver con el Sr. Waldman.
207
00:14:05,209 --> 00:14:09,853
[SPEAKER_00]: Me pregunto, ¿cómo sabe que tenía algo que ver con las declaraciones del Sr. Waldman?
208
00:14:10,725 --> 00:14:15,897
[SPEAKER_02]: Pero tenía la impresión, me informaron, de que nadie sabía realmente quién era el Sr. Waldman antes de todo esto.
209
00:14:15,997 --> 00:14:18,362
[SPEAKER_02]: Así que no esperaba que fuera otra cosa.
210
00:14:18,422 --> 00:14:19,725
[SPEAKER_02]: No pensé que fuera una controversia.
211
00:14:21,610 --> 00:14:24,571
[SPEAKER_00]: ¿No fue una controversia si todos sabían quién era el Sr. Waldman?
212
00:14:24,631 --> 00:14:25,391
[SPEAKER_00]: ¿Es ese su testimonio?
213
00:14:25,671 --> 00:14:25,852
[SPEAKER_02]: No.
214
00:14:25,992 --> 00:14:32,754
[SPEAKER_02]: Estoy diciendo que no fue una controversia si alguien de repente estaba hablando de él, que tuviera que ver con este caso.
215
00:14:32,774 --> 00:14:33,874
[SPEAKER_00]: Muy bien.
216
00:14:34,034 --> 00:14:38,196
[SPEAKER_00]: Pero, repito, no es así, ¿tuvo que ver con este caso?
217
00:14:38,736 --> 00:14:43,038
[SPEAKER_00]: Es así, ¿tuvo que ver con las declaraciones supuestamente difamatorias?
218
00:14:43,258 --> 00:14:45,298
[SPEAKER_00]:No tiene idea, ¿verdad, señor?
219
00:14:46,119 --> 00:14:47,479
[SPEAKER_02]: No puedo entrar en la mente de nadie.
220
00:14:47,659 --> 00 :14:49,240
[SPEAKER_02]: Solo puedo hablar de la ciencia detrás de esto.
221
00:14:49,560 --> 00:14:49,740
[SPEAKER_00]: Correcto.
222
00:14:51,608 --> 00:15:01,132
[SPEAKER_00]: Y entonces identificaste todos estos hashtags como negativos hacia lo que se escucha mal, ¿cierto?
223
00:15:01,352 --> 00:15:01,692
[SPEAKER_02]: Cierto.
224
00:15:03,293 --> 00:15:07,995
[SPEAKER_00]: Justicia para Johnny Depp no ​​es negativa hacia las malas interpretaciones, ¿verdad?
225
00:15:08,895 --> 00:15:11,616
[SPEAKER_02]: No, pero los tuits que usan ese hashtag sí lo son.
226
00:15:12,116 --> 00:15:18,279
[SPEAKER_00]: No, pero el hashtag en sí, el hashtag que predomina a través de su análisis es
227
00:15:19,119 --> 00:15:21,761
[SPEAKER_00]: de hecho no es negativo hacia la Sra.
228
00:15:21,801 --> 00:15:22,081
[SPEAKER_00]: Escuché.
229
00:15:23,322 --> 00:15:25,644
[SPEAKER_02]: No opino sobre el hashtag en sí.
230
00:15:25,704 --> 00:15:29,047
[SPEAKER_02]: Me refiero a los tuits que contienen ese hashtag.
231
00:15:30,948 --> 00:15:33,330
[SPEAKER_00]: Pero el hashtag en sí no es negativo.
232
00:15:35,071 --> 00:15:37,493
[SPEAKER_02]: Eso no forma parte de mi opinión, de una forma u otra.
233
00:15:38,734 --> 00:15:41,996
[SPEAKER_00]: ¿Tienes una opinión sobre si la justicia para Johnny Depp es algo bueno?
234
00:15:42,017 --> 00:15:45,199
[SPEAKER_02]: Eso no es parte de mi tarea.
235
00:15:45,822 --> 00:15:46,162
[SPEAKER_00]: Está bien.
236
00:15:46,442 --> 00:15:49,003
[SPEAKER_00]: ¿Pero estarás de acuerdo conmigo en que la justicia en general es algo bueno?
237
00:15:49,163 --> 00:15:49,984
[SPEAKER_02]: Gran fanático de la justicia.
238
00:15:50,004 --> 00:15:50,404
[SPEAKER_00]: Muy bien.
239
00:15:50,584 --> 00:15:50,984
[SPEAKER_00]: Yo también.
240
00:15:51,844 --> 00:15:52,605
[SPEAKER_00]: No hay más preguntas.
241
00:15:52,965 --> 00:15:53,305
[SPEAKER_01]: Muy bien.
242
00:15:53,325 --> 00:15:53,745
[SPEAKER_01]: Redirigir.
243
00:15:55,826 --> 00:15:56,006
[SPEAKER_01]: De acuerdo.
244
00:15:56,026 --> 00:15:56,346
[SPEAKER_01]: Sí, señor.
245
00:16:01,788 --> 00:16:07,951
[SPEAKER_01]: Sr. Schnell, revisó una gran muestra de tuits de justicia para Johnny Depp, ¿correcto?
246
00:16:08,491 --> 00:16:08,791
[SPEAKER_02]: Lo hice.
247
00:16:09,311 --> 00:16:15,354
[SPEAKER_01]: Y los tuits que tenían el hashtag justicia para Johnny Depp, ¿cuántos de ellos eran negativos hacia la Sra. Hurd?
248
00:16:15,374 --> 00:16:15,514
[SPEAKER_01]: ¿Hurd?


Comentarios