diff --git a/Prototyp/.ipynb_checkpoints/Prototype-checkpoint.ipynb b/Prototyp/.ipynb_checkpoints/Prototype-checkpoint.ipynb index a1ebab9e..77e11898 100644 --- a/Prototyp/.ipynb_checkpoints/Prototype-checkpoint.ipynb +++ b/Prototyp/.ipynb_checkpoints/Prototype-checkpoint.ipynb @@ -248,18 +248,10 @@ "scrolled": true }, "outputs": [ - { - "name": "stdout", - "output_type": "stream", - "text": [ - "dumping the session\n", - "done\n" - ] - }, { "data": { "application/vnd.jupyter.widget-view+json": { - "model_id": "74fc341e0a474605b1f95c3e4e35d0b2", + "model_id": "8550b5ce616f4cd89a39ee2a05c5da15", "version_major": 2, "version_minor": 0 }, @@ -453,7 +445,7 @@ "#display(OutTextFeld)\n", "items = [SentSeg, SolveShorts, SayYes, PassivErsetzen, GenitiveErsetzen, KonjunktiveErsetzen, FremdWB, Appendixes, Medio] \n", "#display(SentSeg, SolveShorts, SayYes, PassivErsetzen, GenitiveErsetzen, KonjunktiveErsetzen)\n", - "Grid = widgets.GridBox(items, layout=widgets.Layout(justify_items=\"center\", grid_template_columns=\"repeat(3, 30%)\", grid_gap=\"4.5%\", height=\"150px\"))\n" + "Grid = widgets.GridBox(items, layout=widgets.Layout(justify_items=\"center\", grid_template_columns=\"repeat(3, 30%)\", grid_gap=\"1.5%\", height=\"200px\"))\n" ] }, { @@ -476,7 +468,7 @@ { "data": { "application/vnd.jupyter.widget-view+json": { - "model_id": "082cb6fb58aa41cc82d918d2a056258d", + "model_id": "fbf6f63cc46248088133806a354dfa01", "version_major": 2, "version_minor": 0 }, @@ -676,7 +668,7 @@ { "data": { "application/vnd.jupyter.widget-view+json": { - "model_id": "dad4baed09a5407194ae2daf153e8f43", + "model_id": "79e1775235dc46c0a6c14a0a261b1518", "version_major": 2, "version_minor": 0 }, @@ -716,7 +708,7 @@ { "data": { "application/vnd.jupyter.widget-view+json": { - "model_id": "4bff927b0a404ed0b909db2bd766ac65", + "model_id": "d1ee481103c54bde9e7ee8eb7ca0a76c", "version_major": 2, "version_minor": 0 }, @@ -838,7 +830,7 @@ { "data": { "application/vnd.jupyter.widget-view+json": { - "model_id": "b6053b85bdcd4446b010b5fb872dc52c", + "model_id": "c70e059820e44adb92a4b4532ebeb959", "version_major": 2, "version_minor": 0 }, @@ -864,7 +856,7 @@ { "data": { "application/vnd.jupyter.widget-view+json": { - "model_id": "4d3e6e3a2bcb499697a50a1a1e88a8a4", + "model_id": "04c03c250bae489895ff8b738c3ce30e", "version_major": 2, "version_minor": 0 }, diff --git a/Prototyp/Passiv2Aktiv.py b/Prototyp/Passiv2Aktiv.py index 322097ca..919c589c 100644 --- a/Prototyp/Passiv2Aktiv.py +++ b/Prototyp/Passiv2Aktiv.py @@ -199,461 +199,467 @@ class Passiv2Aktiv(object): endsentences = [] sentencecount = 0 for sentence in sentences: - - sentencecount += 1 - #print('processing sentence', sentencecount) - - doc = self.nlp(' '.join(sentence)) - - verbs_of_sentence = [] - wordindex_to_replace = [] - count = 0 - subjectofsentence = [] - subjectindex = [] - erindex = [] - Erindex = [] - undindex = [] - - for word in doc: - - count += 1 - - #print(word.text) - #print(word.dep_) - - if word.dep_ == 'sb': - - #print('oi') - subjectofsentence.append(word.text) - subjectindex.append(count) - - if word.text == 'er': - erindex.append(count) - if word.text == 'Er': - Erindex.append(count) - if word.text == 'und': - undindex.append(count) - - if word.tag_[0] == 'V': - verbs_of_sentence.append(word.text) - wordindex_to_replace.append(count) - - - if len(verbs_of_sentence) == 1 and verbs_of_sentence[0] == ('wurde' or 'wird' or 'werden' or 'wirst' or 'werde' or 'war'): - verbs_of_sentence[0] = 'bliblablubdudidu' - - verbs_of_sentence_string = ' '.join(verbs_of_sentence) - - - - length_verbs_of_sentence_string = len(verbs_of_sentence_string) - - verbs_of_sentence_string += ' ' + str(length_verbs_of_sentence_string) - #print(verbs_of_sentence_string) - bestmatchesZustandspassiv1, matchindexZustandspassiv1 = self.fsearchZustandspassiv1.search_with_highest_multiplikation_Output(verbs_of_sentence_string, 1) - - bestmatchesVorgangspassiv1, matchindexVorgangspassiv1 = self.fsearchVorgangspassiv1.search_with_highest_multiplikation_Output(verbs_of_sentence_string, 1) - - - #print('verbs of sentence string', verbs_of_sentence_string) - #print(len(verbs_of_sentence)) - #print(matchindexVorgangspassiv1) - #print(matchindexZustandspassiv1) - - - vorgangORnot = 0 - zustandORnot = 0 - if (len(verbs_of_sentence) + 1) == matchindexVorgangspassiv1[1]: - workindex = matchindexVorgangspassiv1[0] - vorgangORnot = 1 - - if (len(verbs_of_sentence) + 1) == matchindexZustandspassiv1[1]: - workindex = matchindexZustandspassiv1[0] - zustandORnot = 1 - - - #print(workindex) - - #print(self.hkldbAktiv_All[matchindexVorgangspassiv1[0]]) - #print(self.hkldbVorgangspassiv_All[matchindexVorgangspassiv1[0]]) - #print(self.hkldbZustandspassiv_All[matchindexZustandspassiv1[0]]) - - formToReplace = [] - - if vorgangORnot == 1: - completeform = self.hkldbVorgangspassiv_All[workindex] - if len(verbs_of_sentence_string.split()) != len(completeform[0][0].split()): - vorgangORnot = 0 - - if vorgangORnot == 1: - completeform = self.hkldbVorgangspassiv_All[workindex] - formToReplace = self.hkldbVorgangspassiv_All[workindex][1][0].split()[-2:] - - - #print('formtoreplace vorgang',formToReplace) - #print('complete form', completeform) - - formToReplace = '3. Person Singular ' + ' '.join(formToReplace) - - #print(formToReplace) - - thrdPersonAktivindex = self.fsearchAktiv2.search_with_highest_multiplikation_Output(formToReplace, 1)[0] - - thrdPersonAktiv = self.hkldbAktiv_All[thrdPersonAktivindex[0]][0][0].split()[:-1] - - #print(thrdPersonAktiv) - - thrdPersonAktiv = ' '.join(thrdPersonAktiv) - - dalist = verbs_of_sentence_string.split()[:-1] - - for verb in dalist: - #print(sentence) - #print(index) - - sentence.remove(verb) - - thereisasubjectEr = 0 - - for index in subjectindex: - for ind in undindex: - if index - 1 == ind: - if index - 2 == ('er' or 'Er'): - thereisasubjectEr = 1 - if index + 1 == ind: - if index + 2 == 'er' or index + 2 == 'Er': - thereisasubjectEr = 1 - #print('subjectofsentence', subjectofsentence) - thereisasubjectich = 0 - thereisasubjectdu = 0 - thereisasubjectihr = 0 - thereisasubjectwir = 0 - for word in subjectofsentence: - if word == 'er' or word == 'Er': - thereisasubjectEr = 1 - if word == 'ich': - thereisasubjectich = 1 - if word == 'du': - thereisasubjectdu = 1 - if word == 'ihr': - thereisasubjectihr = 1 - if word == 'wir': - thereisasubjectwir = 1 - #print('there is a subjecter', thereisasubjectEr) - if thereisasubjectEr == 1: - try: - sentence.remove('Er') - except: - sentence.remove('er') - sentence.append('ihn') - if thereisasubjectich == 1: - sentence.remove('ich') - sentence.append('mich') - if thereisasubjectdu == 1: - sentence.remove('du') - sentence.append('dich') - if thereisasubjectihr == 1: - sentence.remove('ihr') - sentence.append('euch') - if thereisasubjectwir == 1: - sentence.remove('wir') - sentence.append('uns') - - sentence.append(thrdPersonAktiv) - #print('sentence in the vorgangornot', sentence) - jemandornot = 1 - wordstodelete = [] - for n in range(len(sentence) - 1): - if sentence[n] == 'von': - if sentence[n + 1] == 'ihr': - sentence[n + 1] = 'sie' - wordstodelete.append(n) - jemandornot = 0 - if sentence[n + 1] == 'ihm': - sentence[n + 1] = 'er' - wordstodelete.append(n) - jemandornot = 0 - import spacy - nlp = spacy.load('de_core_news_sm') - token1 = nlp(sentence[n - 1]) - token2 = nlp(sentence[n + 1]) - for word in token1: - if word.tag_ != 'NN' and word.tag_ != 'NE': - for word in token2: - if word.tag_ == 'NN' or word.tag_ == 'NE': + try: + sentencecount += 1 + #print('processing sentence', sentencecount) + + doc = self.nlp(' '.join(sentence)) + + verbs_of_sentence = [] + wordindex_to_replace = [] + count = 0 + subjectofsentence = [] + subjectindex = [] + erindex = [] + Erindex = [] + undindex = [] + + for word in doc: + + count += 1 + + #print(word.text) + #print(word.dep_) + + if word.dep_ == 'sb': + + #print('oi') + subjectofsentence.append(word.text) + subjectindex.append(count) + + if word.text == 'er': + erindex.append(count) + if word.text == 'Er': + Erindex.append(count) + if word.text == 'und': + undindex.append(count) + + if word.tag_[0] == 'V': + verbs_of_sentence.append(word.text) + wordindex_to_replace.append(count) + + + if len(verbs_of_sentence) == 1 and verbs_of_sentence[0] == ('wurde' or 'wird' or 'werden' or 'wirst' or 'werde' or 'war'): + verbs_of_sentence[0] = 'bliblablubdudidu' + + verbs_of_sentence_string = ' '.join(verbs_of_sentence) + + + + length_verbs_of_sentence_string = len(verbs_of_sentence_string) + + verbs_of_sentence_string += ' ' + str(length_verbs_of_sentence_string) + #print(verbs_of_sentence_string) + bestmatchesZustandspassiv1, matchindexZustandspassiv1 = self.fsearchZustandspassiv1.search_with_highest_multiplikation_Output(verbs_of_sentence_string, 1) + + bestmatchesVorgangspassiv1, matchindexVorgangspassiv1 = self.fsearchVorgangspassiv1.search_with_highest_multiplikation_Output(verbs_of_sentence_string, 1) + + + #print('verbs of sentence string', verbs_of_sentence_string) + #print(len(verbs_of_sentence)) + #print(matchindexVorgangspassiv1) + #print(matchindexZustandspassiv1) + + + vorgangORnot = 0 + zustandORnot = 0 + if (len(verbs_of_sentence) + 1) == matchindexVorgangspassiv1[1]: + workindex = matchindexVorgangspassiv1[0] + vorgangORnot = 1 + + if (len(verbs_of_sentence) + 1) == matchindexZustandspassiv1[1]: + workindex = matchindexZustandspassiv1[0] + zustandORnot = 1 + + + #print(workindex) + + #print(self.hkldbAktiv_All[matchindexVorgangspassiv1[0]]) + #print(self.hkldbVorgangspassiv_All[matchindexVorgangspassiv1[0]]) + #print(self.hkldbZustandspassiv_All[matchindexZustandspassiv1[0]]) + + formToReplace = [] + + if vorgangORnot == 1: + completeform = self.hkldbVorgangspassiv_All[workindex] + if len(verbs_of_sentence_string.split()) != len(completeform[0][0].split()): + vorgangORnot = 0 + + if vorgangORnot == 1: + completeform = self.hkldbVorgangspassiv_All[workindex] + formToReplace = self.hkldbVorgangspassiv_All[workindex][1][0].split()[-2:] + + + #print('formtoreplace vorgang',formToReplace) + #print('complete form', completeform) + + formToReplace = '3. Person Singular ' + ' '.join(formToReplace) + + #print(formToReplace) + + thrdPersonAktivindex = self.fsearchAktiv2.search_with_highest_multiplikation_Output(formToReplace, 1)[0] + + thrdPersonAktiv = self.hkldbAktiv_All[thrdPersonAktivindex[0]][0][0].split()[:-1] + + #print(thrdPersonAktiv) + + thrdPersonAktiv = ' '.join(thrdPersonAktiv) + + dalist = verbs_of_sentence_string.split()[:-1] + + for verb in dalist: + #print(sentence) + #print(index) + + sentence.remove(verb) + + thereisasubjectEr = 0 + + for index in subjectindex: + for ind in undindex: + if index - 1 == ind: + if index - 2 == ('er' or 'Er'): + thereisasubjectEr = 1 + if index + 1 == ind: + if index + 2 == 'er' or index + 2 == 'Er': + thereisasubjectEr = 1 + #print('subjectofsentence', subjectofsentence) + thereisasubjectich = 0 + thereisasubjectdu = 0 + thereisasubjectihr = 0 + thereisasubjectwir = 0 + for word in subjectofsentence: + if word == 'er' or word == 'Er': + thereisasubjectEr = 1 + if word == 'ich': + thereisasubjectich = 1 + if word == 'du': + thereisasubjectdu = 1 + if word == 'ihr': + thereisasubjectihr = 1 + if word == 'wir': + thereisasubjectwir = 1 + #print('there is a subjecter', thereisasubjectEr) + if thereisasubjectEr == 1: + try: + sentence.remove('Er') + except: + sentence.remove('er') + sentence.append('ihn') + if thereisasubjectich == 1: + sentence.remove('ich') + sentence.append('mich') + if thereisasubjectdu == 1: + sentence.remove('du') + sentence.append('dich') + if thereisasubjectihr == 1: + sentence.remove('ihr') + sentence.append('euch') + if thereisasubjectwir == 1: + sentence.remove('wir') + sentence.append('uns') + + sentence.append(thrdPersonAktiv) + #print('sentence in the vorgangornot', sentence) + jemandornot = 1 + wordstodelete = [] + for n in range(len(sentence) - 1): + if sentence[n] == 'von': + if sentence[n + 1] == 'ihr': + sentence[n + 1] = 'sie' + wordstodelete.append(n) + jemandornot = 0 + if sentence[n + 1] == 'ihm': + sentence[n + 1] = 'er' + wordstodelete.append(n) + jemandornot = 0 + import spacy + nlp = spacy.load('de_core_news_sm') + token1 = nlp(sentence[n - 1]) + token2 = nlp(sentence[n + 1]) + for word in token1: + if word.tag_ != 'NN' and word.tag_ != 'NE': + for word in token2: + if word.tag_ == 'NN' or word.tag_ == 'NE': + wordstodelete.append(n) + + jemandornot = 0 + if sentence[n + 1] == 'dem' or sentence[n + 1] == 'einem': + + token3 = nlp(sentence[n-1]) + for word in token3: + if word.tag_ != 'NN' and word.tag_ != 'NE': + sentence[n + 1] = 'ein' + wordstodelete.append(n) + jemandornot = 0 + if sentence[n + 1] == 'der' or sentence[n + 1] == 'einer': + token4 = nlp(sentence[n-1]) + for word in token4: + if word.tag_ != 'NN' and word.tag_ != 'NE': + sentence[n + 1] = 'eine' wordstodelete.append(n) - jemandornot = 0 - if sentence[n + 1] == 'dem' or sentence[n + 1] == 'einem': - - token3 = nlp(sentence[n-1]) - for word in token3: - if word.tag_ != 'NN' and word.tag_ != 'NE': - sentence[n + 1] = 'ein' - wordstodelete.append(n) - jemandornot = 0 - if sentence[n + 1] == 'der' or sentence[n + 1] == 'einer': - token4 = nlp(sentence[n-1]) - for word in token4: - if word.tag_ != 'NN' and word.tag_ != 'NE': - sentence[n + 1] = 'eine' - wordstodelete.append(n) - jemandornot = 0 - - if sentence[n] == 'vom': - - sentence[n] = 'ein' - jemandornot = 0 - for index in wordstodelete[::-1]: - del sentence[index] - if jemandornot == 1: - sentence.append('jemand') - - - #print('sentence checkpoint 2', sentence) - - #print('get the tuples and triples to check..') - tuplesTocheck, triplesTocheck, quadruplesToCheck = self.gs.GetTuplesinSentence(sentence) - #print('done') - #print(tuplesTocheck, triplesTocheck) - - grammpiecessentence = self.gs.createTupleofGrammarpieces( sentence, tuplesTocheck, triplesTocheck, quadruplesToCheck) - - if len(grammpiecessentence) > 7: - print('A sentence is too long, too many permutations. \n piping wrong grammar..') - endsentences.append(' '.join(grammpiecessentence).split()) - else: - - #print('the grammpiecessentence', grammpiecessentence) - #print('genrating the permutations') - permutations = self.sgm.GeneratePermutationsOfSentence(grammpiecessentence) - #print('done') - #print(permutations) - #if (len(tuplesTocheck) != 0) or (len(triplesTocheck) != 0): - # print('filtering the permutations based on the tuples and triples..') - # filteredpermutations = self.gs.filterpermutationsaccordingtotuples(permutations, tuplesTocheck, triplesTocheck) - # print('done') - #else: - # print('there are no triples or tuples to check..') - # filteredpermutations = permutations - - sentencesToCheck = [] - for sentence in permutations: - sentencesToCheck.append(' '.join(sentence)) - - #print('sentencesToCheck', sentencesToCheck) - #print('classifying the probability for right grammar in the filtered permutations..') - #print(' '.join(sentence)) - endsentence = self.sgm.GetBestSentenceFromSentencesAccordingToGrammar(sentencesToCheck, ' '.join(sentence)) - #print('done') + if sentence[n] == 'vom': - #print('the endsentence', endsentence) - endsentences.append(endsentence.split()) - - #count1 = 0 - - #print(subjectindex) - #subjectindex = subjectindex[0] - #if subjectindex != 0: - #for word in sentence[subjectindex - 1:subjectindex + 1]: - #count1 += 1 - #if word == 'und': - #thereIsanUnd = count1 - #if subjectindex == 0: - #for word in sentence[subjectindex:subjectindex + 1]: - #count1 += 1 - #if word == 'und': - #thereIsanUnd = count1 - #thereisanEr = 0 - #if sentence[subjectindex - 1 + thereIsanUnd] == 'er' or sentence[subjectindex - 1 + thereIsanUnd] == 'Er': - - #thereisanEr = 1 - - - #if thereisanEr == 1: - - #sentence.remove('Er') - #sentence.remove('er') - #sentence.append('ihn') - - - #print('zustandornot',zustandORnot) - #print('vorgang', vorgangORnot) - - if zustandORnot == 1: - completeform = self.hkldbZustandspassiv_All[workindex] - if len(verbs_of_sentence_string.split()) != len(completeform[0][0].split()): - zustandORnot = 0 - - - if zustandORnot == 1: - #completeform = self.hkldbZustandspassiv_All[workindex] - formToReplace = self.hkldbZustandspassiv_All[workindex][1][0].split()[-2:] - formToReplace = '3. Person Singular ' + ' '.join(formToReplace) - #print('formtoreplace zustand',formToReplace) - #print('complete form', completeform) - - thrdPersonAktivindex = self.fsearchAktiv2.search_with_highest_multiplikation_Output(formToReplace, 1)[0] - - thrdPersonAktiv = self.hkldbAktiv_All[thrdPersonAktivindex[0]][0][0].split()[:-1] - - thrdPersonAktiv = ' '.join(thrdPersonAktiv) - - for verb in verbs_of_sentence_string.split()[:-1]: - #print(sentence) - #print(index) - - sentence.remove(verb) - - thereisasubjectEr = 0 - - for index in subjectindex: - for ind in undindex: - if index - 1 == ind: - if index - 2 == ('er' or 'Er'): - thereisasubjectEr = 1 - if index + 1 == ind: - if index + 2 == 'er' or index + 2 == 'Er': - thereisasubjectEr = 1 - #print('subjectofsentence', subjectofsentence) - - thereisasubjectich = 0 - thereisasubjectdu = 0 - thereisasubjectihr = 0 - thereisasubjectwir = 0 - for word in subjectofsentence: - if word == 'er' or word == 'Er': - thereisasubjectEr = 1 - if word == 'ich': - thereisasubjectich = 1 - if word == 'du': - thereisasubjectdu = 1 - if word == 'ihr': - thereisasubjectihr = 1 - if word == 'wir': - thereisasubjectwir = 1 - if thereisasubjectEr == 1: - try: - sentence.remove('Er') - except: - sentence.remove('er') - sentence.append('ihn') - - if thereisasubjectich == 1: - sentence.remove('ich') - sentence.append('mich') - if thereisasubjectdu == 1: - sentence.remove('du') - sentence.append('dich') - if thereisasubjectihr == 1: - sentence.remove('ihr') - sentence.append('euch') - if thereisasubjectwir == 1: - sentence.remove('wir') - sentence.append('uns') - - sentence.append(thrdPersonAktiv) - - jemandornot = 1 - wordstodelete = [] - for n in range(len(sentence) - 1): - if sentence[n] == 'von': - if sentence[n + 1] == 'ihr': - sentence[n + 1] = 'sie' - wordstodelete.append(n) - jemandornot = 0 - if sentence[n + 1] == 'ihm': - sentence[n + 1] = 'er' - wordstodelete.append(n) + sentence[n] = 'ein' jemandornot = 0 - - import spacy - nlp = spacy.load('de_core_news_sm') - token1 = nlp(sentence[n - 1]) - token2 = nlp(sentence[n + 1]) - for word in token1: - if word.tag_ != 'NN' and word.tag_ != 'NE': - for word in token2: - if word.tag_ == 'NN' or word.tag_ == 'NE': + for index in wordstodelete[::-1]: + del sentence[index] + if jemandornot == 1: + sentence.append('jemand') + + + #print('sentence checkpoint 2', sentence) + + #print('get the tuples and triples to check..') + tuplesTocheck, triplesTocheck, quadruplesToCheck = self.gs.GetTuplesinSentence(sentence) + #print('done') + #print(tuplesTocheck, triplesTocheck) + + grammpiecessentence = self.gs.createTupleofGrammarpieces( sentence, tuplesTocheck, triplesTocheck, quadruplesToCheck) + + if len(grammpiecessentence) > 7: + print('A sentence is too long, too many permutations. \n piping wrong grammar..') + endsentences.append(' '.join(grammpiecessentence).split()) + + else: + + #print('the grammpiecessentence', grammpiecessentence) + #print('genrating the permutations') + permutations = self.sgm.GeneratePermutationsOfSentence(grammpiecessentence) + #print('done') + #print(permutations) + #if (len(tuplesTocheck) != 0) or (len(triplesTocheck) != 0): + # print('filtering the permutations based on the tuples and triples..') + # filteredpermutations = self.gs.filterpermutationsaccordingtotuples(permutations, tuplesTocheck, triplesTocheck) + # print('done') + #else: + # print('there are no triples or tuples to check..') + # filteredpermutations = permutations + + sentencesToCheck = [] + for sentence in permutations: + sentencesToCheck.append(' '.join(sentence)) + + #print('sentencesToCheck', sentencesToCheck) + #print('classifying the probability for right grammar in the filtered permutations..') + #print(' '.join(sentence)) + endsentence = self.sgm.GetBestSentenceFromSentencesAccordingToGrammar(sentencesToCheck, ' '.join(sentence)) + #print('done') + + #print('the endsentence', endsentence) + endsentences.append(endsentence.split()) + + #count1 = 0 + + #print(subjectindex) + #subjectindex = subjectindex[0] + #if subjectindex != 0: + #for word in sentence[subjectindex - 1:subjectindex + 1]: + #count1 += 1 + #if word == 'und': + #thereIsanUnd = count1 + #if subjectindex == 0: + #for word in sentence[subjectindex:subjectindex + 1]: + #count1 += 1 + #if word == 'und': + #thereIsanUnd = count1 + #thereisanEr = 0 + #if sentence[subjectindex - 1 + thereIsanUnd] == 'er' or sentence[subjectindex - 1 + thereIsanUnd] == 'Er': + + #thereisanEr = 1 + + + #if thereisanEr == 1: + + #sentence.remove('Er') + #sentence.remove('er') + #sentence.append('ihn') + + + #print('zustandornot',zustandORnot) + #print('vorgang', vorgangORnot) + + if zustandORnot == 1: + completeform = self.hkldbZustandspassiv_All[workindex] + if len(verbs_of_sentence_string.split()) != len(completeform[0][0].split()): + zustandORnot = 0 + + + if zustandORnot == 1: + #completeform = self.hkldbZustandspassiv_All[workindex] + formToReplace = self.hkldbZustandspassiv_All[workindex][1][0].split()[-2:] + formToReplace = '3. Person Singular ' + ' '.join(formToReplace) + #print('formtoreplace zustand',formToReplace) + #print('complete form', completeform) + + thrdPersonAktivindex = self.fsearchAktiv2.search_with_highest_multiplikation_Output(formToReplace, 1)[0] + + thrdPersonAktiv = self.hkldbAktiv_All[thrdPersonAktivindex[0]][0][0].split()[:-1] + + thrdPersonAktiv = ' '.join(thrdPersonAktiv) + + for verb in verbs_of_sentence_string.split()[:-1]: + #print(sentence) + #print(index) + + sentence.remove(verb) + + thereisasubjectEr = 0 + + for index in subjectindex: + for ind in undindex: + if index - 1 == ind: + if index - 2 == ('er' or 'Er'): + thereisasubjectEr = 1 + if index + 1 == ind: + if index + 2 == 'er' or index + 2 == 'Er': + thereisasubjectEr = 1 + #print('subjectofsentence', subjectofsentence) + + thereisasubjectich = 0 + thereisasubjectdu = 0 + thereisasubjectihr = 0 + thereisasubjectwir = 0 + for word in subjectofsentence: + if word == 'er' or word == 'Er': + thereisasubjectEr = 1 + if word == 'ich': + thereisasubjectich = 1 + if word == 'du': + thereisasubjectdu = 1 + if word == 'ihr': + thereisasubjectihr = 1 + if word == 'wir': + thereisasubjectwir = 1 + if thereisasubjectEr == 1: + try: + sentence.remove('Er') + except: + sentence.remove('er') + sentence.append('ihn') + + if thereisasubjectich == 1: + sentence.remove('ich') + sentence.append('mich') + if thereisasubjectdu == 1: + sentence.remove('du') + sentence.append('dich') + if thereisasubjectihr == 1: + sentence.remove('ihr') + sentence.append('euch') + if thereisasubjectwir == 1: + sentence.remove('wir') + sentence.append('uns') + + sentence.append(thrdPersonAktiv) + + jemandornot = 1 + wordstodelete = [] + for n in range(len(sentence) - 1): + if sentence[n] == 'von': + if sentence[n + 1] == 'ihr': + sentence[n + 1] = 'sie' + wordstodelete.append(n) + jemandornot = 0 + if sentence[n + 1] == 'ihm': + sentence[n + 1] = 'er' + wordstodelete.append(n) + jemandornot = 0 + + import spacy + nlp = spacy.load('de_core_news_sm') + token1 = nlp(sentence[n - 1]) + token2 = nlp(sentence[n + 1]) + for word in token1: + if word.tag_ != 'NN' and word.tag_ != 'NE': + for word in token2: + if word.tag_ == 'NN' or word.tag_ == 'NE': + wordstodelete.append(n) + + jemandornot = 0 + if sentence[n + 1] == 'dem' or sentence[n + 1] == 'einem': + + token3 = nlp(sentence[n-1]) + for word in token3: + if word.tag_ != 'NN' and word.tag_ != 'NE': + sentence[n + 1] = 'ein' + wordstodelete.append(n) + jemandornot = 0 + if sentence[n + 1] == 'der' or sentence[n + 1] == 'einer': + token4 = nlp(sentence[n-1]) + for word in token4: + if word.tag_ != 'NN' and word.tag_ != 'NE': + sentence[n + 1] = 'eine' wordstodelete.append(n) - jemandornot = 0 - if sentence[n + 1] == 'dem' or sentence[n + 1] == 'einem': - - token3 = nlp(sentence[n-1]) - for word in token3: - if word.tag_ != 'NN' and word.tag_ != 'NE': - sentence[n + 1] = 'ein' - wordstodelete.append(n) - jemandornot = 0 - if sentence[n + 1] == 'der' or sentence[n + 1] == 'einer': - token4 = nlp(sentence[n-1]) - for word in token4: - if word.tag_ != 'NN' and word.tag_ != 'NE': - sentence[n + 1] = 'eine' - wordstodelete.append(n) - jemandornot = 0 - - if sentence[n] == 'vom': - - sentence[n] = 'ein' - jemandornot = 0 - - for index in wordstodelete[::-1]: - del sentence[index] - - if jemandornot == 1: - sentence.append('jemand') - - - #print(sentence) - - #print('get the tuples and triples to check..') - tuplesTocheck, triplesTocheck, quadruplesTocheck = self.gs.GetTuplesinSentence(sentence) - #print('done') - #print(tuplesTocheck, triplesTocheck) - - grammpiecessentence = self.gs.createTupleofGrammarpieces( sentence, tuplesTocheck, triplesTocheck, quadruplesTocheck) - - if len(grammpiecessentence) > 7: - print('A sentence is too long, too many permutations. \n piping wrong grammar..') - endsentences.append(' '.join(grammpiecessentence).split()) - else: - - #print('the grammpiecessentence', grammpiecessentence) - #print('genrating the permutations') - permutations = self.sgm.GeneratePermutationsOfSentence(grammpiecessentence) - #print('done') - #print(permutations) - #if (len(tuplesTocheck) != 0) or (len(triplesTocheck) != 0): - # print('filtering the permutations based on the tuples and triples..') - # filteredpermutations = self.gs.filterpermutationsaccordingtotuples(permutations, tuplesTocheck, triplesTocheck) - # print('done') - #else: - # print('there are no triples or tuples to check..') - # filteredpermutations = permutations - - sentencesToCheck = [] - for sentence in permutations: - sentencesToCheck.append(' '.join(sentence)) - - #print('sentencesToCheck', sentencesToCheck) - #print('classifying the probability for right grammar in the filtered permutations..') - #print(' '.join(sentence)) - endsentence = self.sgm.GetBestSentenceFromSentencesAccordingToGrammar(sentencesToCheck, ' '.join(sentence)) + if sentence[n] == 'vom': + + sentence[n] = 'ein' + jemandornot = 0 + + for index in wordstodelete[::-1]: + del sentence[index] + + if jemandornot == 1: + sentence.append('jemand') + + + #print(sentence) + + #print('get the tuples and triples to check..') + tuplesTocheck, triplesTocheck, quadruplesTocheck = self.gs.GetTuplesinSentence(sentence) #print('done') + #print(tuplesTocheck, triplesTocheck) - #print('the endsentence', endsentence) - endsentences.append(endsentence.split()) - - - - if zustandORnot == 0 and vorgangORnot == 0: - #print('it is coming to the else') - endsentences.append(sentence) - + grammpiecessentence = self.gs.createTupleofGrammarpieces( sentence, tuplesTocheck, triplesTocheck, quadruplesTocheck) + + if len(grammpiecessentence) > 7: + print('A sentence is too long, too many permutations. \n piping wrong grammar..') + endsentences.append(' '.join(grammpiecessentence).split()) + + else: + + #print('the grammpiecessentence', grammpiecessentence) + #print('genrating the permutations') + permutations = self.sgm.GeneratePermutationsOfSentence(grammpiecessentence) + #print('done') + #print(permutations) + #if (len(tuplesTocheck) != 0) or (len(triplesTocheck) != 0): + # print('filtering the permutations based on the tuples and triples..') + # filteredpermutations = self.gs.filterpermutationsaccordingtotuples(permutations, tuplesTocheck, triplesTocheck) + # print('done') + #else: + # print('there are no triples or tuples to check..') + # filteredpermutations = permutations + + sentencesToCheck = [] + for sentence in permutations: + sentencesToCheck.append(' '.join(sentence)) + + #print('sentencesToCheck', sentencesToCheck) + #print('classifying the probability for right grammar in the filtered permutations..') + #print(' '.join(sentence)) + endsentence = self.sgm.GetBestSentenceFromSentencesAccordingToGrammar(sentencesToCheck, ' '.join(sentence)) + #print('done') + + #print('the endsentence', endsentence) + endsentences.append(endsentence.split()) + + + + if zustandORnot == 0 and vorgangORnot == 0: + #print('it is coming to the else') + endsentences.append(sentence) + + except: + print('the sentence ' + str(sentence) + ' caused an error in the module passive2active') + if endsentences[-1] == sentence: + pass + else: + endsentences.append(sentence) diff --git a/Prototyp/Prototype.ipynb b/Prototyp/Prototype.ipynb index a1ebab9e..711f10cb 100644 --- a/Prototyp/Prototype.ipynb +++ b/Prototyp/Prototype.ipynb @@ -248,18 +248,10 @@ "scrolled": true }, "outputs": [ - { - "name": "stdout", - "output_type": "stream", - "text": [ - "dumping the session\n", - "done\n" - ] - }, { "data": { "application/vnd.jupyter.widget-view+json": { - "model_id": "74fc341e0a474605b1f95c3e4e35d0b2", + "model_id": "3daf3708d77e4098b826524460104e31", "version_major": 2, "version_minor": 0 }, @@ -453,7 +445,7 @@ "#display(OutTextFeld)\n", "items = [SentSeg, SolveShorts, SayYes, PassivErsetzen, GenitiveErsetzen, KonjunktiveErsetzen, FremdWB, Appendixes, Medio] \n", "#display(SentSeg, SolveShorts, SayYes, PassivErsetzen, GenitiveErsetzen, KonjunktiveErsetzen)\n", - "Grid = widgets.GridBox(items, layout=widgets.Layout(justify_items=\"center\", grid_template_columns=\"repeat(3, 30%)\", grid_gap=\"4.5%\", height=\"150px\"))\n" + "Grid = widgets.GridBox(items, layout=widgets.Layout(justify_items=\"center\", grid_template_columns=\"repeat(3, 30%)\", grid_gap=\"1.5%\", height=\"200px\"))\n" ] }, { @@ -476,7 +468,7 @@ { "data": { "application/vnd.jupyter.widget-view+json": { - "model_id": "082cb6fb58aa41cc82d918d2a056258d", + "model_id": "a45cde93f5394cf6b262cc31f14c0d2e", "version_major": 2, "version_minor": 0 }, @@ -676,7 +668,7 @@ { "data": { "application/vnd.jupyter.widget-view+json": { - "model_id": "dad4baed09a5407194ae2daf153e8f43", + "model_id": "5b0d573af12e4e1f9276834123b062a7", "version_major": 2, "version_minor": 0 }, @@ -716,7 +708,7 @@ { "data": { "application/vnd.jupyter.widget-view+json": { - "model_id": "4bff927b0a404ed0b909db2bd766ac65", + "model_id": "be9b40c345ca4105a3810de0872fa144", "version_major": 2, "version_minor": 0 }, @@ -838,7 +830,7 @@ { "data": { "application/vnd.jupyter.widget-view+json": { - "model_id": "b6053b85bdcd4446b010b5fb872dc52c", + "model_id": "01404ad96cc34dd5af96915447731bea", "version_major": 2, "version_minor": 0 }, @@ -864,7 +856,7 @@ { "data": { "application/vnd.jupyter.widget-view+json": { - "model_id": "4d3e6e3a2bcb499697a50a1a1e88a8a4", + "model_id": "39c27a696cbd470fa8f5c58d10460336", "version_major": 2, "version_minor": 0 }, diff --git a/Prototyp/Verbesserungen/Input145.txt b/Prototyp/Verbesserungen/Input145.txt new file mode 100644 index 00000000..4affe91a --- /dev/null +++ b/Prototyp/Verbesserungen/Input145.txt @@ -0,0 +1,5 @@ +so falsch waren die Voraussagen vor der Vergabe des Friedensnobelpreises schon lange nicht mehr . +die meisten Auguren hatten die Klima­kämpfer*innen von Fridays for Future, die im Kampf gegen die Coronapandemie befindliche Weltgesundheitsorganisation oder eine*n aus der in letzter Zeit deutlich gestiegenen Anzahl verfolgter und inhaftierter Journalis*tinnen auf dem Zettel . +an das Welternährungsprogramm (World Food Programme, WFP) der UNO dachte niemand . +dabei gehörte die 1961 gegründete und inzwischen größte humanitäre Organisation der Welt bereits im letzten Jahr beim Auswahlverfahren durch das Nobelpreiskomittee in Oslo zur Schlussrunde der letzten 3 von über 1.000 vorgeschlagenen Kandidat*innen . +und wenn man sich anschaut, welche Organisationen und Personen aus dem UNO-System seit 1945 bereits den Friedensnobelpreis erhalten haben, dann war die Auszeichnung für das WFP schon lange überfällig . diff --git a/Prototyp/Verbesserungen/Input146.txt b/Prototyp/Verbesserungen/Input146.txt new file mode 100644 index 00000000..5e4a6f34 --- /dev/null +++ b/Prototyp/Verbesserungen/Input146.txt @@ -0,0 +1 @@ +ich ging, obwohl es regnete, in die Schule . diff --git a/Prototyp/Verbesserungen/Input147.txt b/Prototyp/Verbesserungen/Input147.txt new file mode 100644 index 00000000..1c8cc32b --- /dev/null +++ b/Prototyp/Verbesserungen/Input147.txt @@ -0,0 +1 @@ +er war, obwohl es nicht so aussah, ziemlich verliebt . diff --git a/Prototyp/Verbesserungen/Input148.txt b/Prototyp/Verbesserungen/Input148.txt new file mode 100644 index 00000000..bd1e5ff1 --- /dev/null +++ b/Prototyp/Verbesserungen/Input148.txt @@ -0,0 +1 @@ +der Mann, der nach Hause ging, rannte wie der Wind . diff --git a/Prototyp/Verbesserungen/Input149.txt b/Prototyp/Verbesserungen/Input149.txt new file mode 100644 index 00000000..d9370aff --- /dev/null +++ b/Prototyp/Verbesserungen/Input149.txt @@ -0,0 +1,4 @@ +begleitet von Warnstreiks in mehreren Bündesländern geht der Tarifkonflikt für die rund 2,3 Millionen Beschäftigten im öffentlichen Dienst von Bund und Kommunen in die entscheidende Phase . +von diesem Donnerstag an verhandeln Arbeitgeber und Gewerkschaften wieder im Potsdamer Kongresshotel . +es könnte die letzte Verhandlungsrunde sein . +zwar zeichnet sich bislang noch keine Annäherung ab, aber angesichts der Coronakrise ist der Einigungsdruck auf beiden Seiten enorm groß . diff --git a/Prototyp/Verbesserungen/Input150.txt b/Prototyp/Verbesserungen/Input150.txt new file mode 100644 index 00000000..9572c52a --- /dev/null +++ b/Prototyp/Verbesserungen/Input150.txt @@ -0,0 +1,3 @@ +die Ausgangslage: Die Dienstleistungsgewerkschaft Verdi und der Deutsche Beamtenbund (dbb) fordern eine Anhebung der Einkommen um 4,8 Prozent, mindestens aber 150 Euro pro Monat . +der Bund und die Vereinigung der kommunalen Arbeitgeberverbände (VKA) bieten ein Lohnplus von 3,5 Prozent an, mindestens jedoch 30 Euro . +die Differenz zwischen Forderung und Angebot klingt nicht groß, sie ist es aber . diff --git a/Prototyp/Verbesserungen/Input151.txt b/Prototyp/Verbesserungen/Input151.txt new file mode 100644 index 00000000..dffcf0f3 --- /dev/null +++ b/Prototyp/Verbesserungen/Input151.txt @@ -0,0 +1,7 @@ +Fische oder Pisces (lateinisch piscis „Fisch“) sind aquatisch lebende Wirbeltiere mit Kiemen . +im engeren Sinne wird der Begriff Fische eingeschränkt auf aquatisch lebende Tiere mit Kiefer verwendet . +im weiteren Sinne umfasst er auch Kieferlose, die unter den rezenten Arten noch mit den Rundmäulern vertreten sind . +in beiden Fällen fehlt wenigstens ein Nachfahre der Fische (nämlich die Landwirbeltiere) in ihrer Abstammungsgemeinschaft . +daher bilden die Fische keine geschlossene Abstammungsgemeinschaft in der biologischen Systematik, sondern ein paraphyletisches Taxon . +sie sind lediglich eine unvollständige Abstammungsgemeinschaft, bestehend aus einem jüngsten Vorfahren und dem aquatisch lebenden Teil seiner Nachfahren . +die Lehre von der Biologie der Fische ist die Ichthyologie (altgriechisch ἰχθύς ichthýs „Fisch“) oder Fischkunde . diff --git a/Prototyp/Verbesserungen/Output145.txt b/Prototyp/Verbesserungen/Output145.txt new file mode 100644 index 00000000..56a161e9 --- /dev/null +++ b/Prototyp/Verbesserungen/Output145.txt @@ -0,0 +1,19 @@ +so falsch waren die Voraussagen vor der Vergabe von dem Friedensnobelpreis schon lange geringerer . +die meisten Auguren hatten die Klima­kaempfer*innen von Fridays for Future . +die im Kampf gegen die Coronapandemie befindliche Welt·gesundheits·organisation oder eine*n aus der in letzter Zeit deutlich gestiegenen Anzahl verfolgter und inhaftierter Journalis*tinnen auf dem Zettel . +die Welt·gesundheits·organisation ist eine Behoerde . +das kurze Wort dafuer ist WHO . +mit Zeit kann man Sachen messen . +man kann messen wie lange etwas dauert . +und man kann Sachen mit·einander vergleichen . +zum Beispiel wie lange ein Jahr geht . +oder wie lange eine Stunde geht . +an das Welternaehrungsprogramm (World Food Programme . +Wfp) der UNO dachte niemand . +die Vereinte Nationen sind ein Zusammenschluss von vielen Laendern . +insgesamt sind es 193 Laender . +dabei gehoerte die 1961 gegruendete und inzwischen groesste humanitaere Organisation der Welt bereits im letzten Jahr beim Auswahlverfahren durch das Nobelpreiskomittee in Oslo zur Schlussrunde der letzten 3 von ueber 1.000 vorgeschlagenen Kandidat*innen . +eine Organisation ist eine Gruppe von Leuten . +und wenn man sich anschaut . +welche Organisationen und Personen aus dem UNO-System seit 1945 bereits den Friedensnobelpreis erhalten haben . +dann war die Auszeichnung fuer das WFP schon lange ueberfaellig . diff --git a/Prototyp/Verbesserungen/Output146.txt b/Prototyp/Verbesserungen/Output146.txt new file mode 100644 index 00000000..7346f1e9 --- /dev/null +++ b/Prototyp/Verbesserungen/Output146.txt @@ -0,0 +1,3 @@ +ich ging . +obwohl es regnete . +in die Schule . diff --git a/Prototyp/Verbesserungen/Output147.txt b/Prototyp/Verbesserungen/Output147.txt new file mode 100644 index 00000000..fa673811 --- /dev/null +++ b/Prototyp/Verbesserungen/Output147.txt @@ -0,0 +1,3 @@ +er war . +obwohl es etwas anders aussah . +ziemlich verliebt . diff --git a/Prototyp/Verbesserungen/Output148.txt b/Prototyp/Verbesserungen/Output148.txt new file mode 100644 index 00000000..90dfb147 --- /dev/null +++ b/Prototyp/Verbesserungen/Output148.txt @@ -0,0 +1,7 @@ +der Mann rannte wie der Wind . +Wind ist Luft, die sich bewegt . +man kann ihn nicht sehen . +aber man kann ihn erkennen . +zum Beispiel: Wenn Äste und Blaetter sich bewegen, dann weht der Wind . +oder am Strand, wenn sich der Sand bewegt . +der nach Hause ging . diff --git a/Prototyp/Verbesserungen/Output149.txt b/Prototyp/Verbesserungen/Output149.txt new file mode 100644 index 00000000..5370e37f --- /dev/null +++ b/Prototyp/Verbesserungen/Output149.txt @@ -0,0 +1,6 @@ +begleitet von Warnstreiks in mehreren Buendeslaendern geht der Tarifkonflikt fuer die rund 2,3 Millionen Beschaeftigten im oeffentlichen Dienst von Bund und Kommunen in die entscheidende Phase . +von diesem Donnerstag an verhandeln Arbeitgeber und Gewerkschaften wieder im Potsdamer Kongresshotel . +der Arbeitgeber ist der Chef einer Firma . +es koennte die letzte Verhandlungsrunde sein . +zwar zeichnet sich bislang noch keine Annaeherung ab . +aber angesichts der Coronakrise ist der Einigungsdruck auf beiden Seiten enorm gross . diff --git a/Prototyp/Verbesserungen/Output150.txt b/Prototyp/Verbesserungen/Output150.txt new file mode 100644 index 00000000..cae43373 --- /dev/null +++ b/Prototyp/Verbesserungen/Output150.txt @@ -0,0 +1,15 @@ +die Ausgangslage: Die Dienstleistungsgewerkschaft Verdi und der Deutsche Beamtenbund (dbb) fordern eine Anhebung der Einkommen um 4,8 Prozent . +Fordern heisst : +ich will etwas bekommen . +ich stelle eine Forderung . +mindestens aber 150 Euro pro Monat . +der Euro ist eine Waehrung . +Waehrung ist Geld das man in einem Land benutzt um zu bezahlen . +es gibt Muenzen und Geldscheine . +der Bund und die Vereinigung der kommunalen Arbeitgeberverbaende (VKA) bieten ein Lohnplus von 3,5 Prozent an . +mindestens jedoch 30 Euro . +die Differenz zwischen Forderung und Angebot klingt nicht gross . +Forderung heisst etwas fordern . +Fordern heisst : +ich will etwas bekommen . +sie ist es aber . diff --git a/Prototyp/Verbesserungen/Output151.txt b/Prototyp/Verbesserungen/Output151.txt new file mode 100644 index 00000000..2c17c4e4 --- /dev/null +++ b/Prototyp/Verbesserungen/Output151.txt @@ -0,0 +1,16 @@ +Fische oder Pisces (lateinisch piscis „Fisch“) sind aquatisch lebende Wirbeltiere mit Kiemen . +ein Fisch ist ein Tier . +er lebt im Wasser . +im engeren Sinne wird der Begriff Fische eingeschraenkt auf aquatisch lebende Tiere mit Kiefer verwendet . +im weiteren Sinne umfasst er auch Kieferlose . +Jemand vertritt mit den Rundmaeulern noch unter den rezenten Arten die . +in beiden Faellen fehlt wenigstens ein Nachfahre der Fische (naemlich die Landwirbeltiere) in ihrer Abstammungsgemeinschaft . +daher bilden die Fische eine offene Abstammungsgemeinschaft in der biologischen Systematik . +sondern ein paraphyletisches Taxon . +sie sind lediglich eine unvollstaendige Abstammungsgemeinschaft . +Bestehend aus einem juengsten Vorfahren und dem aquatisch lebenden Teil seiner Nachfahren . +die Lehre der Fische ist die Ichthyologie (altgriechisch ἰχθύς ichthýs „Fisch“) oder Fischkunde . +die Lehre ist von der Biologie . +Biologie untersucht Leben und Lebe·wesen . +zum Beispiel Tiere, Menschen und Pflanzen . +und Biologie sammelt Wissen ueber Leben und Lebe·wesen . diff --git a/Prototyp/Verbesserungen/Verbesserungen145.txt b/Prototyp/Verbesserungen/Verbesserungen145.txt new file mode 100644 index 00000000..ecebedc9 --- /dev/null +++ b/Prototyp/Verbesserungen/Verbesserungen145.txt @@ -0,0 +1,20 @@ +so falsch waren die Voraussagen vor der Vergabe von dem Friedensnobelpreis schon lange geringerer . +die meisten Auguren hatten die Klima­kaempfer*innen von Fridays for Future auf dem Zettel . +sie hatten die im Kampf gegen die Coronapandemie befindliche Welt·gesundheits·organisation auf dem Zettel . +oder sie hatten eine*n aus der in letzter Zeit deutlich gestiegenen Anzahl verfolgter und inhaftierter Journalis*tinnen auf dem Zettel . +die Welt·gesundheits·organisation ist eine Behoerde . +das kurze Wort dafuer ist WHO . +mit Zeit kann man Sachen messen . +man kann messen wie lange etwas dauert . +und man kann Sachen mit·einander vergleichen . +zum Beispiel wie lange ein Jahr geht . +oder wie lange eine Stunde geht . +an das Welternaehrungsprogramm (World Food Programme . +Wfp) der UNO dachte niemand . +die Vereinte Nationen sind ein Zusammenschluss von vielen Laendern . +insgesamt sind es 193 Laender . +dabei gehoerte die 1961 gegruendete und inzwischen groesste humanitaere Organisation der Welt bereits im letzten Jahr beim Auswahlverfahren durch das Nobelpreiskomittee in Oslo zur Schlussrunde der letzten 3 von ueber 1.000 vorgeschlagenen Kandidat*innen . +eine Organisation ist eine Gruppe von Leuten . +und wenn man sich anschaut . +welche Organisationen und Personen aus dem UNO-System seit 1945 bereits den Friedensnobelpreis erhalten haben . +dann war die Auszeichnung fuer das WFP schon lange ueberfaellig . diff --git a/Prototyp/Verbesserungen/Verbesserungen146.txt b/Prototyp/Verbesserungen/Verbesserungen146.txt new file mode 100644 index 00000000..d8318d8a --- /dev/null +++ b/Prototyp/Verbesserungen/Verbesserungen146.txt @@ -0,0 +1,2 @@ +ich ging in die Schule . +obwohl es regnete . diff --git a/Prototyp/Verbesserungen/Verbesserungen147.txt b/Prototyp/Verbesserungen/Verbesserungen147.txt new file mode 100644 index 00000000..e6416db4 --- /dev/null +++ b/Prototyp/Verbesserungen/Verbesserungen147.txt @@ -0,0 +1,2 @@ +er war ziemlich verliebt . +obwohl es anders aussah . diff --git a/Prototyp/Verbesserungen/Verbesserungen148.txt b/Prototyp/Verbesserungen/Verbesserungen148.txt new file mode 100644 index 00000000..0337832e --- /dev/null +++ b/Prototyp/Verbesserungen/Verbesserungen148.txt @@ -0,0 +1,7 @@ +der Mann rannte wie der Wind . +Wind ist Luft, die sich bewegt . +man kann ihn nicht sehen . +aber man kann ihn erkennen . +zum Beispiel: Wenn Äste und Blaetter sich bewegen, dann weht der Wind . +oder am Strand, wenn sich der Sand bewegt . +dieser ging nach Hause . diff --git a/Prototyp/Verbesserungen/Verbesserungen149.txt b/Prototyp/Verbesserungen/Verbesserungen149.txt new file mode 100644 index 00000000..26bbe4c5 --- /dev/null +++ b/Prototyp/Verbesserungen/Verbesserungen149.txt @@ -0,0 +1,8 @@ +der Tarifkonflikt fuer die rund 2,3 Millionen Beschaeftigten im oeffentlichen Dienst von Bund und Kommunen geht in die entscheidende Phase . +dabei wird er begleitet von Warnstreiks in mehreren Buendeslaendern . +von diesem Donnerstag an verhandeln Arbeitgeber und Gewerkschaften wieder im Potsdamer Kongresshotel . +der Arbeitgeber ist der Chef einer Firma . +es koennte die letzte Verhandlungsrunde sein . +zwar zeichnet sich bislang noch keine Annaeherung ab . +aber der Einigungsdruck auf beiden Seiten ist enorm gross . +weil gerade die Coronakrise ist . diff --git a/Prototyp/Verbesserungen/Verbesserungen150.txt b/Prototyp/Verbesserungen/Verbesserungen150.txt new file mode 100644 index 00000000..4c0b343b --- /dev/null +++ b/Prototyp/Verbesserungen/Verbesserungen150.txt @@ -0,0 +1,12 @@ +die Ausgangslage: Die Dienstleistungsgewerkschaft Verdi und der Deutsche Beamtenbund (dbb) fordern eine Anhebung der Einkommen um 4,8 Prozent . +Fordern heisst : +ich will etwas bekommen . +ich stelle eine Forderung . +mindestens aber 150 Euro pro Monat . +der Euro ist eine Waehrung . +Waehrung ist Geld das man in einem Land benutzt um zu bezahlen . +es gibt Muenzen und Geldscheine . +der Bund und die Vereinigung der kommunalen Arbeitgeberverbaende (VKA) bieten ein Lohnplus von 3,5 Prozent an . +mindestens jedoch 30 Euro . +die Differenz zwischen Forderung und Angebot klingt nicht gross . +sie ist es aber . diff --git a/Prototyp/Verbesserungen/Verbesserungen151.txt b/Prototyp/Verbesserungen/Verbesserungen151.txt new file mode 100644 index 00000000..f3cecd22 --- /dev/null +++ b/Prototyp/Verbesserungen/Verbesserungen151.txt @@ -0,0 +1,16 @@ +Fische oder Pisces (lateinisch piscis „Fisch“) sind aquatisch lebende Wirbeltiere mit Kiemen . +ein Fisch ist ein Tier . +er lebt im Wasser . +im engeren Sinne wird der Begriff Fische eingeschraenkt auf aquatisch lebende Tiere mit Kiefer verwendet . +im weiteren Sinne umfasst er auch Kieferlose . +Jemand vertritt die mit den Rundmaeulern noch unter den rezenten Arten . +in beiden Faellen fehlt wenigstens ein Nachfahre der Fische (naemlich die Landwirbeltiere) in ihrer Abstammungsgemeinschaft . +daher bilden die Fische eine offene Abstammungsgemeinschaft in der biologischen Systematik . +nämlich ein paraphyletisches Taxon . +sie sind lediglich eine unvollstaendige Abstammungsgemeinschaft . +Bestehend aus einem juengsten Vorfahren und dem aquatisch lebenden Teil seiner Nachfahren . +die Lehre der Fische ist die Ichthyologie (altgriechisch ἰχθύς ichthýs „Fisch“) oder Fischkunde . +die Lehre ist von der Biologie . +Biologie untersucht Leben und Lebe·wesen . +zum Beispiel Tiere, Menschen und Pflanzen . +und Biologie sammelt Wissen ueber Leben und Lebe·wesen . diff --git a/Prototyp/Verbesserungen/indexDerVerbesserungen.txt b/Prototyp/Verbesserungen/indexDerVerbesserungen.txt index 70e1a64c..c663e4d0 100644 --- a/Prototyp/Verbesserungen/indexDerVerbesserungen.txt +++ b/Prototyp/Verbesserungen/indexDerVerbesserungen.txt @@ -1 +1 @@ -144 \ No newline at end of file +151 \ No newline at end of file diff --git a/Prototyp/__pycache__/Passiv2Aktiv.cpython-35.pyc b/Prototyp/__pycache__/Passiv2Aktiv.cpython-35.pyc index 1a8c1e11..e428d5ef 100644 Binary files a/Prototyp/__pycache__/Passiv2Aktiv.cpython-35.pyc and b/Prototyp/__pycache__/Passiv2Aktiv.cpython-35.pyc differ diff --git a/Prototyp/__pycache__/SolveShorts.cpython-35.pyc b/Prototyp/__pycache__/SolveShorts.cpython-35.pyc index b734f0f0..b53ad8c3 100644 Binary files a/Prototyp/__pycache__/SolveShorts.cpython-35.pyc and b/Prototyp/__pycache__/SolveShorts.cpython-35.pyc differ