Op zich is dat niet zo heel moelijk. De techniek die er nu is was er grotendeels in de jaren 80 al. Ik heb zelf in de jaren 80 en in de jaren 90 mee geëxperimenteerd. Onder andere had ik begin jaren 90 al een vertaalprogramma dat qua werkingsprincipe niet veel anders werkt als Google Translate. Sommige vertalingen waren geschikt hiervoor, en sommige minder. In de tijd dat het programma goed werkte heb ik het gebruikt voor een deel van mijn vertaalwerk.PA9X schreef: ↑27 jul 2023, 10:43 Ik lees het al, we kunnen niet meer zonder. John, hartelijk dank voor deze bijdrage!! Vooral deze vind ik erg interessant:
Signaalverwerking en ruisreductie:
Leg uit dat AI kan helpen bij het verbeteren van signaalverwerking en ruisreductie. AI-algoritmen kunnen ongewenste ruis en storingen detecteren en verminderen, wat resulteert in een betere ontvangst van signalen en een verhoogde communicatiekwaliteit.
Waar ik mee wil experimenteren is een stukje AI wat o.a. Adobe biedt om achtergrondgeluid te onderdrukken, zonder op kwaliteit in te leveren. Dit wordt nu toegepast om audio in videopnames te verbeteren, maar ook in live videoverbindingen. Een open raam naast een druk kruispunt maakt de spreker onverstaanbaar, maar wordt m.b.v. AI volledig onderdrukt. Alsof de spreker in een akoestisch geoptimaliseerde ruimte zit. Dit moet natuurlijk ook toe te passen zijn op mijn eigen uitgaande audio. Komt zeker van pas als je, zoals ik, een buurman hebt die voor alle klussen een slijptol inzet.
Maar moet ook andersom toe te passen zijn om manmade noise op je ontvangst te herkennen en te onderdrukken. Dat zou je dan alleen op de uitgaande audio hoeven te doen en dan kunnen de DNL, DNR en NB op je transceiver uit blijven staan. Hoe zou het zijn als we daardoor een storingsarme ontvangst terugkrijgen?
De beperking was dat het programma werkte op een AT-286. Dat waren computers die nog maar 1 proces tegelijk konden draaien. Het grote verschil met nu is dat de poule met data enorm veel groter is, maar bovenal dat de computers snel genoeg zijn om hier nog wijs uit te kunnen worden.
Mijn software werkte onder Foxpro, een vrij schaamteloze kopie door Microsoft van het bekende dBase IV. De software was zelflerend. Hij gaf drie of vier voorstellen van een zin of een deel van een zin, waaruit je moest kiezen. Ik ben begonnen met zelf handmatig een begin te maken met de database, maar het merendeel stond er met die zelflerendheid in.
In de jaren 80 had je expertsystemen, die van een heel smal onderwerp heel veel kennis bevatten en daar ook zelfstandig conclusies uit konden destilleren. Bijvoorbeeld voor het oplossen van complexe problomen. Ooit bedacht voor de off-shore olie-industrie. De grote bedrjiven hadden vaak maar een paar echt goede experts die de werking van een platform tot in alle details kenden en daardoor problemen op de platforms konden oplossen. Maar, het is gevaarlijk werk, en daarbij kwam er wel eens een expert om het leven. Dat was potentieel fataal voor zo'n bedrijf, omdat er maar zo weinig van waren. De kennis was niet geschikt om in boekwerken vast te leggen. Daar was het te intuïtief voor. Besloten werd toen om de kennis van zo'n expert in de computer te stoppen zodat minder deskundig personeel ter plekken dezelfde oplossingsvoorstellen kon genereren. Dat bleek uitermate goed te functioneren, als het onderwerp maar "smal" genoeg was anders kon de techniek het nog niet aan.
Een tweede type zijn programma's met neurale netwerken. Volgens mij bedacht voor de analyse van de foto's van de Landsat aardobservatiesatellieten. In elk geval werd het daarvoor begin jaren 80 al gebruikt. Dat waren nog chemische foto's. Die foto's waren voor NASA goede business. Ze werden overal voor gebruikt, zelfs door boeren om te kijken of hun bemestingstaktieken zin hadden. Maar de analyse van die foto's was handwerk. Ik weet het niet meer zeker, maar volgens mij hadden ze op een gegeven moment een idioot aantal van 100.000 mensen die full of parttime die foto's voor ze analyseerden. Die analyse kon software met neurale netwerken ook. Neurale netwerken worden nu (in combinatie met grote databases) ingezet voor bijv. zelfrijdende auto's.
Dergelijke software is gebaseerd op een enorm aantal vrij eenvoudige autonome proggramma-units, die gemodelleerd zijn naar menselijke/dierlijke hersencellen en die op dezelfde manier werken. (Vandaar neurale netwerken, grote netwerken van gevirtualiseerde hersencellen).
Daarnaast heb je nog de zelflerendheid van dat soort software.
Tegenwoordig zie je dat er combinaties van deze drie vroeger vaak afzonderlijke programmaprincipes werkzaam zijn. Het nieuwe aan sites als ChatGPT zijn ook 'programmeertalen' of structuren waarin je dit soort programma's veel efffectiever kunt schrijven.
In principe zie ik dat die oude systemen zoals hierboven omschreven nog steeds als zodanig worden gebruikt. Het verschil is dat dat in combinaties van deze drie gebeurt, en natuurlijk dat de computers miljoenen malen sneller zijn, en over gigantische hoeveelheden gegevens kunnen beschkken en daar ook wijs uit kunnen worden bij die aantallen.
Wat je voor een dergelijke ruisonderdrukking simpelweg moet doen is een database aanmaken en die op een of andere manier moet zien te "veredelen". Dat gaat het meest effectief met zelflerendheid, waarbij je dus op een of andere manier (liefst automatisch, maar desnoods met door mensen ingevulde enquetes) feedback genereert die teruggaat naar de software, zodat die voortdurend telkens beter wordt. Doel is hier (maar dat zal duidelijk zijn) dat de software steeds beter de menselijke stem in al zijn varianten van andere geluiden moet leren te onderscheiden.
Dit is op zich niet zo'n heel ingewikkeld probleem.