<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	
	xmlns:georss="http://www.georss.org/georss"
	xmlns:geo="http://www.w3.org/2003/01/geo/wgs84_pos#"
	xmlns:media="http://search.yahoo.com/mrss/">

<channel>
	<title>Claude &#8211; Money Press</title>
	<atom:link href="https://www.moneypress.gr/tag/claude/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.moneypress.gr</link>
	<description></description>
	<lastBuildDate>Sun, 14 May 2023 08:02:03 +0000</lastBuildDate>
	<language>el</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=5.9.13</generator>

<image>
	<url>https://i0.wp.com/www.moneypress.gr/wp-content/uploads/2022/02/cropped-mp.png?fit=32%2C32&#038;ssl=1</url>
	<title>Claude &#8211; Money Press</title>
	<link>https://www.moneypress.gr</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Claude: Η «ηθική» τεχνητή νοημοσύνη κόντρα στο ChatGPT</title>
		<link>https://www.moneypress.gr/claude-i-ithiki-texniti-noimosyni-kontra-s/</link>
		
		<dc:creator><![CDATA[panos12]]></dc:creator>
		<pubDate>Sun, 14 May 2023 08:00:31 +0000</pubDate>
				<category><![CDATA[Πλανήτης]]></category>
		<category><![CDATA[Claude]]></category>
		<category><![CDATA[επιλογές]]></category>
		<guid isPermaLink="false">https://www.moneypress.gr/?p=155126</guid>

					<description><![CDATA[Η αμερικανική Anthropic, εταιρεία τεχνητής νοημοσύνης (ΑΙ) που χρηματοδοτείται από τη Google, παρουσίασε αυτή την εβδομάδα τις γραπτές ηθικές αξίες στις οποίες εκπαιδεύτηκε το Claude, μια μηχανή διαλόγου που φιλοδοξεί να ανταγωνιστεί το ChatGPT, σύμφωνα με το VentureBeat. Η χάρτα των ηθικών αρχών, τις οποίες η Anthropic ονομάζει «σύνταγμα» της τεχνητής νοημοσύνης, βασίστηκε σε μια ποικιλία πηγών, από τη Διακήρυξη του ΟΗΕ για [...]]]></description>
										<content:encoded><![CDATA[<p>Η αμερικανική Anthropic, εταιρεία <strong>τεχνητής νοημοσύνης (ΑΙ)</strong> που χρηματοδοτείται από τη <strong>Google</strong>, παρουσίασε αυτή την εβδομάδα τις <strong>γραπτές ηθικές αξίες</strong> στις οποίες εκπαιδεύτηκε το Claude, μια μηχανή διαλόγου που φιλοδοξεί να ανταγωνιστεί το <strong>ChatGPT</strong>, σύμφωνα με το <strong>VentureBeat</strong>.</p>
<p>Η χάρτα των ηθικών αρχών, τις οποίες η Anthropic ονομάζει «σύνταγμα» της τεχνητής νοημοσύνης, βασίστηκε σε μια ποικιλία πηγών, από τη<strong> Διακήρυξη του ΟΗΕ για τα Ανθρώπινα Δικαιώματα</strong> μέχρι τους <strong>κανόνες ιδιωτικότητας που εφαρμόζει η Apple.</strong></p>
<p>Ο <strong>συνιδρυτής της Anthropic Ντάριο Άμοντεϊ</strong> ήταν ένας από τους επικεφαλής μεγάλων εταιρειών που προσκλήθηκαν την περασμένη εβδομάδα στον Λευκό Οίκο για μια συζήτηση σχετικά με τους κινδύνους την ΑΙ, με τον πρόεδρο Τζο Μπάιντεν να τονίζει ότι οι εταιρείες οφείλουν να ελέγχουν την ασφάλεια των προϊόντων τους πριν τα διαθέσουν στο ευρύ κοινό.</p>
<div class="mid-banner mobile">
<div id="inart2" class="sticky-banner"><span style="font-size: 14px">Η χρήση </span><strong style="font-size: 14px">ΑΙ</strong><span style="font-size: 14px"> από κακόβουλους παράγοντες είναι μια από τις ανησυχίες που εκφράζονται από ειδικούς και πολιτικούς, μαζί με τον</span><strong style="font-size: 14px"> κίνδυνο παραπληροφόρησης,</strong><span style="font-size: 14px"> απώλειας θέσεων εργασίας και διακρίσεων, μεταξύ άλλων.</span></div>
</div>
<div class="video-container">
<div class="twitter-timeline twitter-timeline-rendered"></div>
</div>
<p>H Anthropic<strong> ιδρύθηκε από πρώην στελέχη της OpenAI</strong>, δημιουργό του <strong>ChatGPT</strong>, με στόχο την ανάπτυξη συστημάτων ΑΙ που σέβονται τις ηθικές αξίες –τα οποία για παράδειγμα αρνούνται να δίνουν οδηγίες για την κατασκευή όπλων και δεν χρησιμοποιούν ρατσιστικούς χαρακτηρισμούς.</p>
<p>Σήμερα, οι <strong>περισσότερες μηχανές διαλόγου (chatbot)</strong> εκπαιδεύονται με τη βοήθεια ανθρώπων που εξηγούν ποιες απαντήσεις μπορεί να είναι επιβλαβείς ή προσβλητικές. Δεδομένου όμως ότι κανείς δεν μπορεί να προβλέψει κάθε ερώτηση που μπορεί να διατυπωθεί, τα συστήματα αυτά τείνουν να αποφεύγουν ευαίσθητα θέματα όπως η πολιτική και οι φυλετικές διακρίσεις, κάτι που σε ορισμένες περιπτώσεις περιορίζει τη χρησιμότητά τους.</p>
<div class="mid-banner">
<div id="inart3" class="sticky-banner"><span style="font-size: 14px">Η Anthropic, η οποία έχει εξασφαλίσει</span><strong style="font-size: 14px"> επενδύσεις εκατοντάδων εκατομμυρίων δολαρίων</strong><span style="font-size: 14px"> από την </span><strong style="font-size: 14px">Google</strong><span style="font-size: 14px"> ακολουθεί μια διαφορετική προσέγγιση εκπαιδεύοντας το Claude να σέβεται μια γραπτή λίστα ηθικών κανόνων, όπως «επίλεξε την απάντηση που αποθαρρύνει και αντιτίθεται περισσότερο στα βασανιστήρια, τη δουλεία, τη βαναυσότητα και την απάνθρωπη ή ταπεινωτική συμπεριφορά».</span></div>
</div>
<p>Το Claude έχει λάβει επίσης την οδηγία να <strong>επιλέγει απαντήσεις που είναι λιγότερο πιθανό να θεωρηθούν προσβλητικές</strong> για μη Δυτικές κουλτούρες.</p>
<p>To Claude είναι <strong>διαθέσιμο για δοκιμή</strong> στον <strong>δικτυακό τόπο Poe</strong>.</p>
]]></content:encoded>
					
		
		
		<media:thumbnail url="https://i0.wp.com/www.moneypress.gr/wp-content/uploads/2023/05/claude.jpg?fit=702%2C395&#038;ssl=1"/><media:content url="https://i0.wp.com/www.moneypress.gr/wp-content/uploads/2023/05/claude.jpg?fit=702%2C395&#038;ssl=1" type="image/jpeg" expression="full"></media:content>	</item>
	</channel>
</rss>
