Principal Entreprise La partie effrayante de l'IA est que beaucoup d'écrivains l'aiment

La partie effrayante de l'IA est que beaucoup d'écrivains l'aiment

Quel Film Voir?
 

L'humoriste Garrison Keillor dédicace de grandes piles de son livre Lake Wobegone Days dans sa chambre d'hôtel. (Photo de Steve Liss/Getty Images) Getty Images



Ceci est la deuxième d'une histoire en deux parties de Book Post; lire le premier message ici .








Au milieu des dénégations selon lesquelles un ordinateur pourrait jamais remplacer un écrivain dans la création d'un véritable art littéraire, plusieurs entretiens avec des écrivains en activité utilisant déjà l'intelligence artificielle étaient provisoirement optimistes. Jay Caspian Kang, écrire dans Le new yorker avec une certaine connaissance préalable des chatbots et des conseils d'experts, n'a pas été en mesure d'arriver à un produit littéraire satisfaisant dans ses incursions fictives avec ChatGPT, mais Kevin Roose sur le balado Fourche dure et écrivain d'éducation John Warner ont pu améliorer considérablement les résultats en affinant leurs apports. Michel Lincoln interviewé le romancier Chandler Klang Smith , qui utilise un programme basé sur GPT-3 appelé Sudowrite travailler sur ses romans pendant environ un an. Elle a décrit de manière mémorable l'expérience comme 'comme un robot qui rêve de votre travail en cours et vous décidez si quelque chose de ce rêve reflète ce que vous essayez de faire'. Elle a déclaré que les efforts de l'IA pour faire avancer le travail peuvent 'débloquer des idées qui semblent déjà être enfouies quelque part … dans le texte'. Chandler Klang Smith a trouvé l'IA inutile pour traiter des 'trucs macro comme l'intrigue et la structure', mais à Le bord , Jennifer Lepp, écrivain auto-publiée 'mystère douillet', qui utilisait Sudowrite et venait de commencer à expérimenter ChatGPT, a déclaré à Josh Dzieza qu'elle était étonnée de pouvoir donner au chatbot une prémisse et quelques détails et que cela pourrait générer une histoire efficace dans le genre. Les auteurs de genre autoédités écrivent souvent pour des lecteurs qui consomment des centaines de romans par an et sont sous pression pour produire à grande échelle (voir notre poste sur l'auto-édition et la romance). Jennifer Lepp a déclaré que de nombreux écrivains qu'elle connaît sont aux prises avec les implications de tirer parti des capacités de ChatGPT pour accélérer le processus. Pour ces lecteurs, l'équilibre entre la participation humaine et la participation de la machine importe-t-il ?



Indépendamment de ces incursions plus joyeuses, plusieurs dangers endémiques dans l'IA générative se présentent. Deux sont parfaitement résumés sur le site de ChatGPT lui-même : le bot 'peut parfois générer des informations incorrectes' et 'peut parfois produire du contenu préjudiciable et des instructions biaisées'. ChatGPT est un modèle de langage : tout ce qu'il fait, c'est prédire le langage en fonction des modèles qu'il identifie dans le très grand pool qu'il extrait d'Internet, et il peut reproduire toutes les erreurs et les laideurs il peut y trouver, et ajouter un peu plus de son propre . (Rappelez-vous du scandale de 2020 lorsque Google a licencié le chercheur en intelligence artificielle Timnet Gebru dont la recherche identifié, entre autres limites des modèles à grand langage, la reproduction des préjugés.) Projet de législation européenne crée des « catégories de risque » qui peut canaliser de nouveaux systèmes d'IA vers des activités « à faible coût » comme les bêtises en ligne avant de se lancer dans des activités « à coût élevé » comme, par exemple, la chirurgie. Pourtant, en tant que chercheur en intelligence artificielle Chandra Bhagavatula dit TechCrunch , 'Les systèmes d'IA prennent déjà des décisions chargées d'implications morales et éthiques.'

L'IA générative peut être amenée à trotter les tropes racistes et sexualiser les images . Outils de recrutement IA peut encoder le biais d'embauche (l'administration Biden l'automne dernier a produit un plan pour un ' Charte des droits de l'IA « protégeant les consommateurs des algorithmes discriminatoires et prédateurs). GPT-3 semble avoir introduit des 'garde-corps' limitant les résultats offensifs, mais ceux-ci sont apparemment facile à subvertir , et également générer pour ses maîtres les types de problèmes de modération qui sévit sur toutes les plates-formes indépendantes du contenu. L'IA générative peut aussi bien sûr être déployée à des fins néfastes... cybercriminalité , contrefaçons profondes , porno non consensuel . ChatGPT demande aux utilisateurs de s'engager à ne pas utiliser son résultat à des fins politiques.






Un autre défi sous-jacent pour les systèmes d'IA génératifs à grand langage comme GPT-3 est propriété intellectuelle . Tout ce que fait ChatGPT s'appuie sur le travail déjà effectué par quelqu'un, et les futurs modèles génératifs aspireront constamment de nouveaux matériaux pour les 'former'. Les chercheurs prédisent que la réglementation et les poursuites en matière de droit d'auteur devront trouver un équilibre entre la reconnaissance du moment où les modèles d'IA usurpent et imitent directement des artistes spécifiques et le moment où la récupération est plus plurielle et couverte par «l'utilisation équitable», bien que certains avocats soutiennent que tout le matériel tiré dans de tels les modèles devraient être licenciés et les créateurs rémunérés. Stability AI a récemment indiqué qu'il permettrait aux artistes de se retirer de l'ensemble de données utilisé pour former le générateur d'images Stable Diffusion ; Getty Images a interdit le contenu de l'IA en raison du risque juridique ; la galerie en ligne DeviantArt a créé une 'balise de métadonnées' pour les images afin d'avertir le chalutier IA. Cela commence à ressembler à une autre phase de l'effusion de sang numérique de la rémunération de ceux qui font le travail mental qui compose notre univers numérique. (De même, les maisons de disques ont récemment exigé une hausse des redevances de TikTok pour la musique qui rend leurs vidéos si contagieuses.)



Manier des outils avec de tels pouvoirs et promesses, en particulier face à notre dossier jonché en matière de gouvernance à la fois au sein de l'industrie technologique et sans réglementation, rend les écrivains et ceux qui travaillent avec le langage et les arts à la fois étourdis et nerveux. Un argument sur la question de savoir si ChatGPT et d'autres outils en grand langage peuvent produire de l'art littéraire (pour : Stéphane Marche , contre: Ian Bogost , Walter Kirn ) semble dépendre de la question de savoir si vous voyez la main éditoriale de l'humain donner à la machine ses invites et affiner ses résultats comme saillants. Amit Gupta, l'un des fondateurs du programme utilisé par Chandler Klang Smith, dit Stephen Marche , dans l'article qui a suscité l'intérêt de Chandler Klang Smith, « le travail de l'écrivain devient presque celui d'un éditeur. Votre rôle commence à consister à décider ce qui est bon et à exécuter selon vos goûts, pas autant le travail de bas niveau consistant à pomper mot par mot par mot. Marche compare l'IA à la photographie et déclare 'avec le recul, il est clair que les machines n'ont pas remplacé l'art ; ils l'ont juste élargi.

Dans présenter à une conférence l'automne dernier, la version de Google de ChatGPT, que la société beaucoup plus énorme n'avait pas encore publiée, comme les autres grandes entreprises dans la course aux armements de l'IA, en raison des nombreuses faiblesses des modèles, en particulier - pour Google - sa tendance à produire des informations inexactes résultats, le chercheur Douglas Eck a souligné que leur modèle, au nom convivial Atelier d'écriture de mots , avait été conçu pour être interactif : 'La technologie devrait répondre à notre besoin d'avoir un contrôle créatif et d'agence sur ce que nous faisons.' Le journaliste Ben Dickson a commenté : « Sans contrôle et surveillance humains, les systèmes d'IA comme les modèles génératifs seront moins performants parce qu'ils n'ont pas la même compréhension des concepts fondamentaux comme nous, les humains, le faisons.

Une grande partie de la désorientation autour de ChatGPT était visible dans une interview incohérente avec le largement publié Stephen Marche sur le podcast L'intelligence au carré , dans lequel il affirmait à la fois que ChatGPT pouvait produire un poème indiscernable de Coleridge et pouvait écrire un essai qu'il pourrait publier dans le atlantique et qu'il n'y a aucun moyen qu'il puisse 'remplacer l'écriture humaine', que les ordinateurs ne pourront jamais créer quelque chose qui 'deviendra viral', même si la viralité est, finalement, un phénomène robotique. Il a fait écho à Amit Gupta en disant que l'utilité des chatbots sera de créer des 'premières ébauches', qui peuvent être complètement fausses, que nous rendrons humains en les corrigeant et en les révisant. En évaluant le travail des étudiants assisté par l'IA, 'vous regarderez beaucoup plus le contenu que la clarté de l'expression', même si le bot 'ne produit pas de travail que vous pouvez utiliser immédiatement' ; l'art humain est dans le raffinement. Si un humain vérifie les faits et peaufine la finition, quelle est la contribution exacte du bot ?

Je peux voir l'argument en faveur de l'utilisation d'outils technologiques, mais cette idée que « pomper mot par mot par mot », ou assembler des idées dans une forme et une séquence, est le « travail de bas niveau » de l'écriture est inintelligible pour moi. Le danger de ChatGPT et de ses frères et sœurs est qu'il est presque impossible de le distinguer du produit humain et peut facilement, comme Timnet Gebru et ses collègues discerné , génèrent, à mesure que les outils deviennent plus sophistiqués, des « illusions de sens » qui voilent le fait qu'un modèle de langage ne comprend ou ne sait rien, il ne fait qu'emprunter du texte et imiter des modèles. Détecter la présence consciente et le but dans la méthode d'écriture appliquée décrite par Gupta et Marche ressemble à une entreprise peut-être de plus en plus insaisissable. Casey Newton et Kevin Roose noté avec inquiétude sur leur podcast qu'un modèle de grande langue appelé Cicero avait appris à battre les gens au jeu Diplomacy—i. e., persuader les acteurs humains dans une négociation.

Je peux presque imaginer un monde dans lequel une machine compose quelque chose qui ravit autant que Mozart ou engage l'esprit avec la complexité de Shakespeare. Je suppose que je ne devrais pas me fermer à la possibilité de ces expériences désormais inimaginables. Mais il m'est difficile de réfléchir à notre association historique de ces formes avec l'intention humaine. Si la dissertation d'un étudiant n'est pas le compte rendu d'un processus de pensée développé, devons-nous trouver un autre moyen d'enregistrer la pensée développée ? Ou est-ce l'idée de déléguer entièrement la pensée développée ? Je ne peux pas tout à fait imaginer mon chemin dans un monde dans lequel l'aspiration intellectuelle n'est plus reconnaissable comme l'eau des choses que nous fabriquons et admirons, le travail de surmonter la pression de l'inconnu, l'effort d'améliorer un monde partiel ou endommagé , parce que tout peut être fait sans essayer, en récupérant et en cousant ce qui a été fait auparavant. Mais peut-être que je ne sais tout simplement pas ce qui me manque.

Articles Que Vous Aimerez Peut-Être :