Responsabilização penal pela divulgação de fake news e por crimes de ódio praticados por sistemas de inteligência artificial generativa
dc.contributor.advisor | Gonçalves, Vanessa Chiari | pt_BR |
dc.contributor.author | Bassotto, Vinicius de Fraga | pt_BR |
dc.date.accessioned | 2024-07-17T05:37:22Z | pt_BR |
dc.date.issued | 2023 | pt_BR |
dc.identifier.uri | http://hdl.handle.net/10183/276416 | pt_BR |
dc.description.abstract | O desenvolvimento de sistemas de inteligência artificial, em paralelo aos benefícios, tem propiciado o surgimento de uma grande variedade de riscos e de “efeitos colaterais negativos”. Nesse cenário, está a possibilidade de sua utilização como instrumento ou como agente independente para divulgar fake news e praticar discurso de ódio, fenômenos intrínsecos ao mundo polarizado e belicoso da era da internet e das redes sociais. Considerando a crescente automação e independência das tecnologias de inteligência artificial, passou-se ao questionamento quanto à possibilidade de os sistemas de inteligência artificial, notadamente, de inteligência artificial generativa, serem penalmente responsabilizados pela divulgação de fake news e pela prática de discurso de ódio. Inserido nesse contexto, o primeiro capítulo deste trabalho buscou analisar a problemática extrapenal ao serem tratadas as características, possibilidades de uso, benefícios, riscos e iniciativas de regulamentação dos sistemas de inteligência artificial, bem como verificou no que consiste o ChatGPT e os seus principais riscos. Em segundo lugar, ao se aproximar da problemática penal, procedeu-se à análise do tratamento conferido pelo direito penal brasileiro às fake news, no que consistem os crimes de ódio e de que forma os sistemas de inteligência artificial podem realizá-los. Por fim, sistematizamos as hipóteses de responsabilização penal em três modelos associados à maior ou à menor independência que possuem as tecnologias de inteligência artificial frente ao programador ou ao usuário. O primeiro modelo considera que um sujeito pode desenvolver ou utilizar das aptidões do sistema de inteligência artificial para, como instrumento, proferir discurso de ódio ou divulgar fake news, de modo que, nesta hipótese, responderia penalmente o próprio agente. O segundo modelo cogita a responsabilização a título de culpa, por negligência, na hipótese de o programador ou o desenvolvedor terem previsto, porém não terem impedido, a prática de ofensas de tais natureza. O terceiro modelo, concernente aos sistemas de inteligência artificial generativa, prevê a produção do resultado típico sem dependência com o programador ou o usuário, o que consiste no ponto sensível e nebuloso da matéria. Nessa hipótese, analisamos as noções de conduta, relação de causalidade e responsabilidade da pessoa jurídica. Ao final, o problema de pesquisa foi respondido em sentido contrário à possibilidade de responsabilização penal nos três casos: (I) do próprio sistema de inteligência artificial generativa, tendo em vista que não se trata de conduta à luz do direito penal; (II) do programador ou do usuário, considerando a inexistência de relação de causalidade entre conduta e resultado; e (III) da empresa desenvolvedora, haja vista a impossibilidade de responsabilização penal da pessoa jurídica nas hipóteses. Assim, abordamos alternativas à responsabilização penal, especialmente dentro dos campos da responsabilidade civil e administrativa, por ilícitos cometidos pelas tecnologias. | pt_BR |
dc.description.abstract | The development of artificial intelligence entities, alongside with the benefits, has led to the emergence of risks and “negative side effects”. In this scenario, there is the possibility of using it as an instrument or as an independent agent to spread fake news and engage in hate speech, phenomena related to the polarized and bellicose world of the internet and social media era. Considering the increasing automation and independence of artificial intelligence technologies, questions have arisen regarding the possibility of artificial intelligence entities, notably generative artificial intelligence, being held criminally responsible for fake news dissemination and the practice of hate speech. Embedded in this context, the first chapter of this work sought to analyze the non-penal issue by addressing the characteristics, possibilities of use, benefits, risks, and regulatory initiatives of artificial intelligence entities, as well as examining what ChatGPT consists of and its main dangers. Secondly, when approaching the criminal problem, we analyzed the treatment given by Brazilian criminal law to fake news, searching for the definition of hate crimes and how artificial intelligence entities can carry them out. Finally, we systematize the hypotheses of criminal liability into three models associated with the greater or lesser independence of artificial intelligence technologies from the programmer or the user. The first model considers that a subject can develop or use the skills of the artificial intelligence entity to, as an instrument, utter hate speech or spread fake news, so in this hypothesis, the agent itself would be criminally liable. The second model considers liability for negligence if the programmer or developer had foreseen, but not prevented, the commission of offenses of such nature. The third model, concerning generative artificial intelligence entities, predicts the production of the typical result without dependence on the programmer or the user, which is the sensitive and nebulous point of the matter. In this hypothesis, we analyze the notions of conduct, causal link, and responsibility of the legal entity. In the end, the research problem was answered in the opposite direction to the possibility of criminal liability in the three cases: (I) the generative artificial intelligence entity itself, considering that it is not a question of conduct in the light of criminal law; (II) of the programmer or user, considering the non-existence of a causal relationship between conduct and result; and (III) the developer company, given the impossibility of holding the legal entity criminally liable in these cases. Thus, we will address alternatives to criminal liability for offenses committed by technologies, especially within the fields of civil liability and administrative law. | en |
dc.format.mimetype | application/pdf | pt_BR |
dc.language.iso | por | pt_BR |
dc.rights | Open Access | en |
dc.subject | Inteligência artificial | pt_BR |
dc.subject | Artifical inteligence | en |
dc.subject | Fake news | pt_BR |
dc.subject | Fake news | en |
dc.subject | Crimes de ódio | pt_BR |
dc.subject | Hate crimes | en |
dc.subject | Responsabilidade penal | pt_BR |
dc.subject | Criminal liability | en |
dc.title | Responsabilização penal pela divulgação de fake news e por crimes de ódio praticados por sistemas de inteligência artificial generativa | pt_BR |
dc.type | Trabalho de conclusão de graduação | pt_BR |
dc.identifier.nrb | 001206599 | pt_BR |
dc.degree.grantor | Universidade Federal do Rio Grande do Sul | pt_BR |
dc.degree.department | Faculdade de Direito | pt_BR |
dc.degree.local | Porto Alegre, BR-RS | pt_BR |
dc.degree.date | 2023 | pt_BR |
dc.degree.graduation | Ciências Jurídicas e Sociais | pt_BR |
dc.degree.level | graduação | pt_BR |
Este item está licenciado na Creative Commons License