Browse Source

Probiert die Knöpfe der einfachheit halber größer zu machen, eine weitere exceptioncatch in passiv2activ implementiert

master
alpcentaur 4 years ago
parent
commit
ec2e973427
27 changed files with 624 additions and 476 deletions
  1. +7
    -15
      Prototyp/.ipynb_checkpoints/Prototype-checkpoint.ipynb
  2. +451
    -445
      Prototyp/Passiv2Aktiv.py
  3. +7
    -15
      Prototyp/Prototype.ipynb
  4. +5
    -0
      Prototyp/Verbesserungen/Input145.txt
  5. +1
    -0
      Prototyp/Verbesserungen/Input146.txt
  6. +1
    -0
      Prototyp/Verbesserungen/Input147.txt
  7. +1
    -0
      Prototyp/Verbesserungen/Input148.txt
  8. +4
    -0
      Prototyp/Verbesserungen/Input149.txt
  9. +3
    -0
      Prototyp/Verbesserungen/Input150.txt
  10. +7
    -0
      Prototyp/Verbesserungen/Input151.txt
  11. +19
    -0
      Prototyp/Verbesserungen/Output145.txt
  12. +3
    -0
      Prototyp/Verbesserungen/Output146.txt
  13. +3
    -0
      Prototyp/Verbesserungen/Output147.txt
  14. +7
    -0
      Prototyp/Verbesserungen/Output148.txt
  15. +6
    -0
      Prototyp/Verbesserungen/Output149.txt
  16. +15
    -0
      Prototyp/Verbesserungen/Output150.txt
  17. +16
    -0
      Prototyp/Verbesserungen/Output151.txt
  18. +20
    -0
      Prototyp/Verbesserungen/Verbesserungen145.txt
  19. +2
    -0
      Prototyp/Verbesserungen/Verbesserungen146.txt
  20. +2
    -0
      Prototyp/Verbesserungen/Verbesserungen147.txt
  21. +7
    -0
      Prototyp/Verbesserungen/Verbesserungen148.txt
  22. +8
    -0
      Prototyp/Verbesserungen/Verbesserungen149.txt
  23. +12
    -0
      Prototyp/Verbesserungen/Verbesserungen150.txt
  24. +16
    -0
      Prototyp/Verbesserungen/Verbesserungen151.txt
  25. +1
    -1
      Prototyp/Verbesserungen/indexDerVerbesserungen.txt
  26. BIN
      Prototyp/__pycache__/Passiv2Aktiv.cpython-35.pyc
  27. BIN
      Prototyp/__pycache__/SolveShorts.cpython-35.pyc

+ 7
- 15
Prototyp/.ipynb_checkpoints/Prototype-checkpoint.ipynb View File

@ -248,18 +248,10 @@
"scrolled": true "scrolled": true
}, },
"outputs": [ "outputs": [
{
"name": "stdout",
"output_type": "stream",
"text": [
"dumping the session\n",
"done\n"
]
},
{ {
"data": { "data": {
"application/vnd.jupyter.widget-view+json": { "application/vnd.jupyter.widget-view+json": {
"model_id": "74fc341e0a474605b1f95c3e4e35d0b2",
"model_id": "8550b5ce616f4cd89a39ee2a05c5da15",
"version_major": 2, "version_major": 2,
"version_minor": 0 "version_minor": 0
}, },
@ -453,7 +445,7 @@
"#display(OutTextFeld)\n", "#display(OutTextFeld)\n",
"items = [SentSeg, SolveShorts, SayYes, PassivErsetzen, GenitiveErsetzen, KonjunktiveErsetzen, FremdWB, Appendixes, Medio] \n", "items = [SentSeg, SolveShorts, SayYes, PassivErsetzen, GenitiveErsetzen, KonjunktiveErsetzen, FremdWB, Appendixes, Medio] \n",
"#display(SentSeg, SolveShorts, SayYes, PassivErsetzen, GenitiveErsetzen, KonjunktiveErsetzen)\n", "#display(SentSeg, SolveShorts, SayYes, PassivErsetzen, GenitiveErsetzen, KonjunktiveErsetzen)\n",
"Grid = widgets.GridBox(items, layout=widgets.Layout(justify_items=\"center\", grid_template_columns=\"repeat(3, 30%)\", grid_gap=\"4.5%\", height=\"150px\"))\n"
"Grid = widgets.GridBox(items, layout=widgets.Layout(justify_items=\"center\", grid_template_columns=\"repeat(3, 30%)\", grid_gap=\"1.5%\", height=\"200px\"))\n"
] ]
}, },
{ {
@ -476,7 +468,7 @@
{ {
"data": { "data": {
"application/vnd.jupyter.widget-view+json": { "application/vnd.jupyter.widget-view+json": {
"model_id": "082cb6fb58aa41cc82d918d2a056258d",
"model_id": "fbf6f63cc46248088133806a354dfa01",
"version_major": 2, "version_major": 2,
"version_minor": 0 "version_minor": 0
}, },
@ -676,7 +668,7 @@
{ {
"data": { "data": {
"application/vnd.jupyter.widget-view+json": { "application/vnd.jupyter.widget-view+json": {
"model_id": "dad4baed09a5407194ae2daf153e8f43",
"model_id": "79e1775235dc46c0a6c14a0a261b1518",
"version_major": 2, "version_major": 2,
"version_minor": 0 "version_minor": 0
}, },
@ -716,7 +708,7 @@
{ {
"data": { "data": {
"application/vnd.jupyter.widget-view+json": { "application/vnd.jupyter.widget-view+json": {
"model_id": "4bff927b0a404ed0b909db2bd766ac65",
"model_id": "d1ee481103c54bde9e7ee8eb7ca0a76c",
"version_major": 2, "version_major": 2,
"version_minor": 0 "version_minor": 0
}, },
@ -838,7 +830,7 @@
{ {
"data": { "data": {
"application/vnd.jupyter.widget-view+json": { "application/vnd.jupyter.widget-view+json": {
"model_id": "b6053b85bdcd4446b010b5fb872dc52c",
"model_id": "c70e059820e44adb92a4b4532ebeb959",
"version_major": 2, "version_major": 2,
"version_minor": 0 "version_minor": 0
}, },
@ -864,7 +856,7 @@
{ {
"data": { "data": {
"application/vnd.jupyter.widget-view+json": { "application/vnd.jupyter.widget-view+json": {
"model_id": "4d3e6e3a2bcb499697a50a1a1e88a8a4",
"model_id": "04c03c250bae489895ff8b738c3ce30e",
"version_major": 2, "version_major": 2,
"version_minor": 0 "version_minor": 0
}, },

+ 451
- 445
Prototyp/Passiv2Aktiv.py View File

@ -199,461 +199,467 @@ class Passiv2Aktiv(object):
endsentences = [] endsentences = []
sentencecount = 0 sentencecount = 0
for sentence in sentences: for sentence in sentences:
sentencecount += 1
#print('processing sentence', sentencecount)
doc = self.nlp(' '.join(sentence))
verbs_of_sentence = []
wordindex_to_replace = []
count = 0
subjectofsentence = []
subjectindex = []
erindex = []
Erindex = []
undindex = []
for word in doc:
count += 1
#print(word.text)
#print(word.dep_)
if word.dep_ == 'sb':
#print('oi')
subjectofsentence.append(word.text)
subjectindex.append(count)
if word.text == 'er':
erindex.append(count)
if word.text == 'Er':
Erindex.append(count)
if word.text == 'und':
undindex.append(count)
if word.tag_[0] == 'V':
verbs_of_sentence.append(word.text)
wordindex_to_replace.append(count)
if len(verbs_of_sentence) == 1 and verbs_of_sentence[0] == ('wurde' or 'wird' or 'werden' or 'wirst' or 'werde' or 'war'):
verbs_of_sentence[0] = 'bliblablubdudidu'
verbs_of_sentence_string = ' '.join(verbs_of_sentence)
length_verbs_of_sentence_string = len(verbs_of_sentence_string)
verbs_of_sentence_string += ' ' + str(length_verbs_of_sentence_string)
#print(verbs_of_sentence_string)
bestmatchesZustandspassiv1, matchindexZustandspassiv1 = self.fsearchZustandspassiv1.search_with_highest_multiplikation_Output(verbs_of_sentence_string, 1)
bestmatchesVorgangspassiv1, matchindexVorgangspassiv1 = self.fsearchVorgangspassiv1.search_with_highest_multiplikation_Output(verbs_of_sentence_string, 1)
#print('verbs of sentence string', verbs_of_sentence_string)
#print(len(verbs_of_sentence))
#print(matchindexVorgangspassiv1)
#print(matchindexZustandspassiv1)
vorgangORnot = 0
zustandORnot = 0
if (len(verbs_of_sentence) + 1) == matchindexVorgangspassiv1[1]:
workindex = matchindexVorgangspassiv1[0]
vorgangORnot = 1
if (len(verbs_of_sentence) + 1) == matchindexZustandspassiv1[1]:
workindex = matchindexZustandspassiv1[0]
zustandORnot = 1
#print(workindex)
#print(self.hkldbAktiv_All[matchindexVorgangspassiv1[0]])
#print(self.hkldbVorgangspassiv_All[matchindexVorgangspassiv1[0]])
#print(self.hkldbZustandspassiv_All[matchindexZustandspassiv1[0]])
formToReplace = []
if vorgangORnot == 1:
completeform = self.hkldbVorgangspassiv_All[workindex]
if len(verbs_of_sentence_string.split()) != len(completeform[0][0].split()):
vorgangORnot = 0
if vorgangORnot == 1:
completeform = self.hkldbVorgangspassiv_All[workindex]
formToReplace = self.hkldbVorgangspassiv_All[workindex][1][0].split()[-2:]
#print('formtoreplace vorgang',formToReplace)
#print('complete form', completeform)
formToReplace = '3. Person Singular ' + ' '.join(formToReplace)
#print(formToReplace)
thrdPersonAktivindex = self.fsearchAktiv2.search_with_highest_multiplikation_Output(formToReplace, 1)[0]
thrdPersonAktiv = self.hkldbAktiv_All[thrdPersonAktivindex[0]][0][0].split()[:-1]
#print(thrdPersonAktiv)
thrdPersonAktiv = ' '.join(thrdPersonAktiv)
dalist = verbs_of_sentence_string.split()[:-1]
for verb in dalist:
#print(sentence)
#print(index)
sentence.remove(verb)
thereisasubjectEr = 0
for index in subjectindex:
for ind in undindex:
if index - 1 == ind:
if index - 2 == ('er' or 'Er'):
thereisasubjectEr = 1
if index + 1 == ind:
if index + 2 == 'er' or index + 2 == 'Er':
thereisasubjectEr = 1
#print('subjectofsentence', subjectofsentence)
thereisasubjectich = 0
thereisasubjectdu = 0
thereisasubjectihr = 0
thereisasubjectwir = 0
for word in subjectofsentence:
if word == 'er' or word == 'Er':
thereisasubjectEr = 1
if word == 'ich':
thereisasubjectich = 1
if word == 'du':
thereisasubjectdu = 1
if word == 'ihr':
thereisasubjectihr = 1
if word == 'wir':
thereisasubjectwir = 1
#print('there is a subjecter', thereisasubjectEr)
if thereisasubjectEr == 1:
try:
sentence.remove('Er')
except:
sentence.remove('er')
sentence.append('ihn')
if thereisasubjectich == 1:
sentence.remove('ich')
sentence.append('mich')
if thereisasubjectdu == 1:
sentence.remove('du')
sentence.append('dich')
if thereisasubjectihr == 1:
sentence.remove('ihr')
sentence.append('euch')
if thereisasubjectwir == 1:
sentence.remove('wir')
sentence.append('uns')
sentence.append(thrdPersonAktiv)
#print('sentence in the vorgangornot', sentence)
jemandornot = 1
wordstodelete = []
for n in range(len(sentence) - 1):
if sentence[n] == 'von':
if sentence[n + 1] == 'ihr':
sentence[n + 1] = 'sie'
wordstodelete.append(n)
jemandornot = 0
if sentence[n + 1] == 'ihm':
sentence[n + 1] = 'er'
wordstodelete.append(n)
jemandornot = 0
import spacy
nlp = spacy.load('de_core_news_sm')
token1 = nlp(sentence[n - 1])
token2 = nlp(sentence[n + 1])
for word in token1:
if word.tag_ != 'NN' and word.tag_ != 'NE':
for word in token2:
if word.tag_ == 'NN' or word.tag_ == 'NE':
try:
sentencecount += 1
#print('processing sentence', sentencecount)
doc = self.nlp(' '.join(sentence))
verbs_of_sentence = []
wordindex_to_replace = []
count = 0
subjectofsentence = []
subjectindex = []
erindex = []
Erindex = []
undindex = []
for word in doc:
count += 1
#print(word.text)
#print(word.dep_)
if word.dep_ == 'sb':
#print('oi')
subjectofsentence.append(word.text)
subjectindex.append(count)
if word.text == 'er':
erindex.append(count)
if word.text == 'Er':
Erindex.append(count)
if word.text == 'und':
undindex.append(count)
if word.tag_[0] == 'V':
verbs_of_sentence.append(word.text)
wordindex_to_replace.append(count)
if len(verbs_of_sentence) == 1 and verbs_of_sentence[0] == ('wurde' or 'wird' or 'werden' or 'wirst' or 'werde' or 'war'):
verbs_of_sentence[0] = 'bliblablubdudidu'
verbs_of_sentence_string = ' '.join(verbs_of_sentence)
length_verbs_of_sentence_string = len(verbs_of_sentence_string)
verbs_of_sentence_string += ' ' + str(length_verbs_of_sentence_string)
#print(verbs_of_sentence_string)
bestmatchesZustandspassiv1, matchindexZustandspassiv1 = self.fsearchZustandspassiv1.search_with_highest_multiplikation_Output(verbs_of_sentence_string, 1)
bestmatchesVorgangspassiv1, matchindexVorgangspassiv1 = self.fsearchVorgangspassiv1.search_with_highest_multiplikation_Output(verbs_of_sentence_string, 1)
#print('verbs of sentence string', verbs_of_sentence_string)
#print(len(verbs_of_sentence))
#print(matchindexVorgangspassiv1)
#print(matchindexZustandspassiv1)
vorgangORnot = 0
zustandORnot = 0
if (len(verbs_of_sentence) + 1) == matchindexVorgangspassiv1[1]:
workindex = matchindexVorgangspassiv1[0]
vorgangORnot = 1
if (len(verbs_of_sentence) + 1) == matchindexZustandspassiv1[1]:
workindex = matchindexZustandspassiv1[0]
zustandORnot = 1
#print(workindex)
#print(self.hkldbAktiv_All[matchindexVorgangspassiv1[0]])
#print(self.hkldbVorgangspassiv_All[matchindexVorgangspassiv1[0]])
#print(self.hkldbZustandspassiv_All[matchindexZustandspassiv1[0]])
formToReplace = []
if vorgangORnot == 1:
completeform = self.hkldbVorgangspassiv_All[workindex]
if len(verbs_of_sentence_string.split()) != len(completeform[0][0].split()):
vorgangORnot = 0
if vorgangORnot == 1:
completeform = self.hkldbVorgangspassiv_All[workindex]
formToReplace = self.hkldbVorgangspassiv_All[workindex][1][0].split()[-2:]
#print('formtoreplace vorgang',formToReplace)
#print('complete form', completeform)
formToReplace = '3. Person Singular ' + ' '.join(formToReplace)
#print(formToReplace)
thrdPersonAktivindex = self.fsearchAktiv2.search_with_highest_multiplikation_Output(formToReplace, 1)[0]
thrdPersonAktiv = self.hkldbAktiv_All[thrdPersonAktivindex[0]][0][0].split()[:-1]
#print(thrdPersonAktiv)
thrdPersonAktiv = ' '.join(thrdPersonAktiv)
dalist = verbs_of_sentence_string.split()[:-1]
for verb in dalist:
#print(sentence)
#print(index)
sentence.remove(verb)
thereisasubjectEr = 0
for index in subjectindex:
for ind in undindex:
if index - 1 == ind:
if index - 2 == ('er' or 'Er'):
thereisasubjectEr = 1
if index + 1 == ind:
if index + 2 == 'er' or index + 2 == 'Er':
thereisasubjectEr = 1
#print('subjectofsentence', subjectofsentence)
thereisasubjectich = 0
thereisasubjectdu = 0
thereisasubjectihr = 0
thereisasubjectwir = 0
for word in subjectofsentence:
if word == 'er' or word == 'Er':
thereisasubjectEr = 1
if word == 'ich':
thereisasubjectich = 1
if word == 'du':
thereisasubjectdu = 1
if word == 'ihr':
thereisasubjectihr = 1
if word == 'wir':
thereisasubjectwir = 1
#print('there is a subjecter', thereisasubjectEr)
if thereisasubjectEr == 1:
try:
sentence.remove('Er')
except:
sentence.remove('er')
sentence.append('ihn')
if thereisasubjectich == 1:
sentence.remove('ich')
sentence.append('mich')
if thereisasubjectdu == 1:
sentence.remove('du')
sentence.append('dich')
if thereisasubjectihr == 1:
sentence.remove('ihr')
sentence.append('euch')
if thereisasubjectwir == 1:
sentence.remove('wir')
sentence.append('uns')
sentence.append(thrdPersonAktiv)
#print('sentence in the vorgangornot', sentence)
jemandornot = 1
wordstodelete = []
for n in range(len(sentence) - 1):
if sentence[n] == 'von':
if sentence[n + 1] == 'ihr':
sentence[n + 1] = 'sie'
wordstodelete.append(n)
jemandornot = 0
if sentence[n + 1] == 'ihm':
sentence[n + 1] = 'er'
wordstodelete.append(n)
jemandornot = 0
import spacy
nlp = spacy.load('de_core_news_sm')
token1 = nlp(sentence[n - 1])
token2 = nlp(sentence[n + 1])
for word in token1:
if word.tag_ != 'NN' and word.tag_ != 'NE':
for word in token2:
if word.tag_ == 'NN' or word.tag_ == 'NE':
wordstodelete.append(n)
jemandornot = 0
if sentence[n + 1] == 'dem' or sentence[n + 1] == 'einem':
token3 = nlp(sentence[n-1])
for word in token3:
if word.tag_ != 'NN' and word.tag_ != 'NE':
sentence[n + 1] = 'ein'
wordstodelete.append(n)
jemandornot = 0
if sentence[n + 1] == 'der' or sentence[n + 1] == 'einer':
token4 = nlp(sentence[n-1])
for word in token4:
if word.tag_ != 'NN' and word.tag_ != 'NE':
sentence[n + 1] = 'eine'
wordstodelete.append(n) wordstodelete.append(n)
jemandornot = 0 jemandornot = 0
if sentence[n + 1] == 'dem' or sentence[n + 1] == 'einem':
token3 = nlp(sentence[n-1])
for word in token3:
if word.tag_ != 'NN' and word.tag_ != 'NE':
sentence[n + 1] = 'ein'
wordstodelete.append(n)
jemandornot = 0
if sentence[n + 1] == 'der' or sentence[n + 1] == 'einer':
token4 = nlp(sentence[n-1])
for word in token4:
if word.tag_ != 'NN' and word.tag_ != 'NE':
sentence[n + 1] = 'eine'
wordstodelete.append(n)
jemandornot = 0
if sentence[n] == 'vom':
sentence[n] = 'ein'
jemandornot = 0
for index in wordstodelete[::-1]:
del sentence[index]
if jemandornot == 1:
sentence.append('jemand')
#print('sentence checkpoint 2', sentence)
#print('get the tuples and triples to check..')
tuplesTocheck, triplesTocheck, quadruplesToCheck = self.gs.GetTuplesinSentence(sentence)
#print('done')
#print(tuplesTocheck, triplesTocheck)
grammpiecessentence = self.gs.createTupleofGrammarpieces( sentence, tuplesTocheck, triplesTocheck, quadruplesToCheck)
if len(grammpiecessentence) > 7:
print('A sentence is too long, too many permutations. \n piping wrong grammar..')
endsentences.append(' '.join(grammpiecessentence).split())
else:
#print('the grammpiecessentence', grammpiecessentence)
#print('genrating the permutations')
permutations = self.sgm.GeneratePermutationsOfSentence(grammpiecessentence)
#print('done')
#print(permutations)
#if (len(tuplesTocheck) != 0) or (len(triplesTocheck) != 0):
# print('filtering the permutations based on the tuples and triples..')
# filteredpermutations = self.gs.filterpermutationsaccordingtotuples(permutations, tuplesTocheck, triplesTocheck)
# print('done')
#else:
# print('there are no triples or tuples to check..')
# filteredpermutations = permutations
sentencesToCheck = []
for sentence in permutations:
sentencesToCheck.append(' '.join(sentence))
#print('sentencesToCheck', sentencesToCheck)
#print('classifying the probability for right grammar in the filtered permutations..')
#print(' '.join(sentence))
endsentence = self.sgm.GetBestSentenceFromSentencesAccordingToGrammar(sentencesToCheck, ' '.join(sentence))
#print('done')
if sentence[n] == 'vom':
#print('the endsentence', endsentence)
endsentences.append(endsentence.split())
#count1 = 0
#print(subjectindex)
#subjectindex = subjectindex[0]
#if subjectindex != 0:
#for word in sentence[subjectindex - 1:subjectindex + 1]:
#count1 += 1
#if word == 'und':
#thereIsanUnd = count1
#if subjectindex == 0:
#for word in sentence[subjectindex:subjectindex + 1]:
#count1 += 1
#if word == 'und':
#thereIsanUnd = count1
#thereisanEr = 0
#if sentence[subjectindex - 1 + thereIsanUnd] == 'er' or sentence[subjectindex - 1 + thereIsanUnd] == 'Er':
#thereisanEr = 1
#if thereisanEr == 1:
#sentence.remove('Er')
#sentence.remove('er')
#sentence.append('ihn')
#print('zustandornot',zustandORnot)
#print('vorgang', vorgangORnot)
if zustandORnot == 1:
completeform = self.hkldbZustandspassiv_All[workindex]
if len(verbs_of_sentence_string.split()) != len(completeform[0][0].split()):
zustandORnot = 0
if zustandORnot == 1:
#completeform = self.hkldbZustandspassiv_All[workindex]
formToReplace = self.hkldbZustandspassiv_All[workindex][1][0].split()[-2:]
formToReplace = '3. Person Singular ' + ' '.join(formToReplace)
#print('formtoreplace zustand',formToReplace)
#print('complete form', completeform)
thrdPersonAktivindex = self.fsearchAktiv2.search_with_highest_multiplikation_Output(formToReplace, 1)[0]
thrdPersonAktiv = self.hkldbAktiv_All[thrdPersonAktivindex[0]][0][0].split()[:-1]
thrdPersonAktiv = ' '.join(thrdPersonAktiv)
for verb in verbs_of_sentence_string.split()[:-1]:
#print(sentence)
#print(index)
sentence.remove(verb)
thereisasubjectEr = 0
for index in subjectindex:
for ind in undindex:
if index - 1 == ind:
if index - 2 == ('er' or 'Er'):
thereisasubjectEr = 1
if index + 1 == ind:
if index + 2 == 'er' or index + 2 == 'Er':
thereisasubjectEr = 1
#print('subjectofsentence', subjectofsentence)
thereisasubjectich = 0
thereisasubjectdu = 0
thereisasubjectihr = 0
thereisasubjectwir = 0
for word in subjectofsentence:
if word == 'er' or word == 'Er':
thereisasubjectEr = 1
if word == 'ich':
thereisasubjectich = 1
if word == 'du':
thereisasubjectdu = 1
if word == 'ihr':
thereisasubjectihr = 1
if word == 'wir':
thereisasubjectwir = 1
if thereisasubjectEr == 1:
try:
sentence.remove('Er')
except:
sentence.remove('er')
sentence.append('ihn')
if thereisasubjectich == 1:
sentence.remove('ich')
sentence.append('mich')
if thereisasubjectdu == 1:
sentence.remove('du')
sentence.append('dich')
if thereisasubjectihr == 1:
sentence.remove('ihr')
sentence.append('euch')
if thereisasubjectwir == 1:
sentence.remove('wir')
sentence.append('uns')
sentence.append(thrdPersonAktiv)
jemandornot = 1
wordstodelete = []
for n in range(len(sentence) - 1):
if sentence[n] == 'von':
if sentence[n + 1] == 'ihr':
sentence[n + 1] = 'sie'
wordstodelete.append(n)
jemandornot = 0
if sentence[n + 1] == 'ihm':
sentence[n + 1] = 'er'
wordstodelete.append(n)
sentence[n] = 'ein'
jemandornot = 0 jemandornot = 0
import spacy
nlp = spacy.load('de_core_news_sm')
token1 = nlp(sentence[n - 1])
token2 = nlp(sentence[n + 1])
for word in token1:
if word.tag_ != 'NN' and word.tag_ != 'NE':
for word in token2:
if word.tag_ == 'NN' or word.tag_ == 'NE':
for index in wordstodelete[::-1]:
del sentence[index]
if jemandornot == 1:
sentence.append('jemand')
#print('sentence checkpoint 2', sentence)
#print('get the tuples and triples to check..')
tuplesTocheck, triplesTocheck, quadruplesToCheck = self.gs.GetTuplesinSentence(sentence)
#print('done')
#print(tuplesTocheck, triplesTocheck)
grammpiecessentence = self.gs.createTupleofGrammarpieces( sentence, tuplesTocheck, triplesTocheck, quadruplesToCheck)
if len(grammpiecessentence) > 7:
print('A sentence is too long, too many permutations. \n piping wrong grammar..')
endsentences.append(' '.join(grammpiecessentence).split())
else:
#print('the grammpiecessentence', grammpiecessentence)
#print('genrating the permutations')
permutations = self.sgm.GeneratePermutationsOfSentence(grammpiecessentence)
#print('done')
#print(permutations)
#if (len(tuplesTocheck) != 0) or (len(triplesTocheck) != 0):
# print('filtering the permutations based on the tuples and triples..')
# filteredpermutations = self.gs.filterpermutationsaccordingtotuples(permutations, tuplesTocheck, triplesTocheck)
# print('done')
#else:
# print('there are no triples or tuples to check..')
# filteredpermutations = permutations
sentencesToCheck = []
for sentence in permutations:
sentencesToCheck.append(' '.join(sentence))
#print('sentencesToCheck', sentencesToCheck)
#print('classifying the probability for right grammar in the filtered permutations..')
#print(' '.join(sentence))
endsentence = self.sgm.GetBestSentenceFromSentencesAccordingToGrammar(sentencesToCheck, ' '.join(sentence))
#print('done')
#print('the endsentence', endsentence)
endsentences.append(endsentence.split())
#count1 = 0
#print(subjectindex)
#subjectindex = subjectindex[0]
#if subjectindex != 0:
#for word in sentence[subjectindex - 1:subjectindex + 1]:
#count1 += 1
#if word == 'und':
#thereIsanUnd = count1
#if subjectindex == 0:
#for word in sentence[subjectindex:subjectindex + 1]:
#count1 += 1
#if word == 'und':
#thereIsanUnd = count1
#thereisanEr = 0
#if sentence[subjectindex - 1 + thereIsanUnd] == 'er' or sentence[subjectindex - 1 + thereIsanUnd] == 'Er':
#thereisanEr = 1
#if thereisanEr == 1:
#sentence.remove('Er')
#sentence.remove('er')
#sentence.append('ihn')
#print('zustandornot',zustandORnot)
#print('vorgang', vorgangORnot)
if zustandORnot == 1:
completeform = self.hkldbZustandspassiv_All[workindex]
if len(verbs_of_sentence_string.split()) != len(completeform[0][0].split()):
zustandORnot = 0
if zustandORnot == 1:
#completeform = self.hkldbZustandspassiv_All[workindex]
formToReplace = self.hkldbZustandspassiv_All[workindex][1][0].split()[-2:]
formToReplace = '3. Person Singular ' + ' '.join(formToReplace)
#print('formtoreplace zustand',formToReplace)
#print('complete form', completeform)
thrdPersonAktivindex = self.fsearchAktiv2.search_with_highest_multiplikation_Output(formToReplace, 1)[0]
thrdPersonAktiv = self.hkldbAktiv_All[thrdPersonAktivindex[0]][0][0].split()[:-1]
thrdPersonAktiv = ' '.join(thrdPersonAktiv)
for verb in verbs_of_sentence_string.split()[:-1]:
#print(sentence)
#print(index)
sentence.remove(verb)
thereisasubjectEr = 0
for index in subjectindex:
for ind in undindex:
if index - 1 == ind:
if index - 2 == ('er' or 'Er'):
thereisasubjectEr = 1
if index + 1 == ind:
if index + 2 == 'er' or index + 2 == 'Er':
thereisasubjectEr = 1
#print('subjectofsentence', subjectofsentence)
thereisasubjectich = 0
thereisasubjectdu = 0
thereisasubjectihr = 0
thereisasubjectwir = 0
for word in subjectofsentence:
if word == 'er' or word == 'Er':
thereisasubjectEr = 1
if word == 'ich':
thereisasubjectich = 1
if word == 'du':
thereisasubjectdu = 1
if word == 'ihr':
thereisasubjectihr = 1
if word == 'wir':
thereisasubjectwir = 1
if thereisasubjectEr == 1:
try:
sentence.remove('Er')
except:
sentence.remove('er')
sentence.append('ihn')
if thereisasubjectich == 1:
sentence.remove('ich')
sentence.append('mich')
if thereisasubjectdu == 1:
sentence.remove('du')
sentence.append('dich')
if thereisasubjectihr == 1:
sentence.remove('ihr')
sentence.append('euch')
if thereisasubjectwir == 1:
sentence.remove('wir')
sentence.append('uns')
sentence.append(thrdPersonAktiv)
jemandornot = 1
wordstodelete = []
for n in range(len(sentence) - 1):
if sentence[n] == 'von':
if sentence[n + 1] == 'ihr':
sentence[n + 1] = 'sie'
wordstodelete.append(n)
jemandornot = 0
if sentence[n + 1] == 'ihm':
sentence[n + 1] = 'er'
wordstodelete.append(n)
jemandornot = 0
import spacy
nlp = spacy.load('de_core_news_sm')
token1 = nlp(sentence[n - 1])
token2 = nlp(sentence[n + 1])
for word in token1:
if word.tag_ != 'NN' and word.tag_ != 'NE':
for word in token2:
if word.tag_ == 'NN' or word.tag_ == 'NE':
wordstodelete.append(n)
jemandornot = 0
if sentence[n + 1] == 'dem' or sentence[n + 1] == 'einem':
token3 = nlp(sentence[n-1])
for word in token3:
if word.tag_ != 'NN' and word.tag_ != 'NE':
sentence[n + 1] = 'ein'
wordstodelete.append(n)
jemandornot = 0
if sentence[n + 1] == 'der' or sentence[n + 1] == 'einer':
token4 = nlp(sentence[n-1])
for word in token4:
if word.tag_ != 'NN' and word.tag_ != 'NE':
sentence[n + 1] = 'eine'
wordstodelete.append(n) wordstodelete.append(n)
jemandornot = 0 jemandornot = 0
if sentence[n + 1] == 'dem' or sentence[n + 1] == 'einem':
token3 = nlp(sentence[n-1])
for word in token3:
if word.tag_ != 'NN' and word.tag_ != 'NE':
sentence[n + 1] = 'ein'
wordstodelete.append(n)
jemandornot = 0
if sentence[n + 1] == 'der' or sentence[n + 1] == 'einer':
token4 = nlp(sentence[n-1])
for word in token4:
if word.tag_ != 'NN' and word.tag_ != 'NE':
sentence[n + 1] = 'eine'
wordstodelete.append(n)
jemandornot = 0
if sentence[n] == 'vom':
sentence[n] = 'ein'
jemandornot = 0
for index in wordstodelete[::-1]:
del sentence[index]
if jemandornot == 1:
sentence.append('jemand')
#print(sentence)
#print('get the tuples and triples to check..')
tuplesTocheck, triplesTocheck, quadruplesTocheck = self.gs.GetTuplesinSentence(sentence)
#print('done')
#print(tuplesTocheck, triplesTocheck)
grammpiecessentence = self.gs.createTupleofGrammarpieces( sentence, tuplesTocheck, triplesTocheck, quadruplesTocheck)
if len(grammpiecessentence) > 7:
print('A sentence is too long, too many permutations. \n piping wrong grammar..')
endsentences.append(' '.join(grammpiecessentence).split())
else:
#print('the grammpiecessentence', grammpiecessentence)
#print('genrating the permutations')
permutations = self.sgm.GeneratePermutationsOfSentence(grammpiecessentence)
#print('done')
#print(permutations)
#if (len(tuplesTocheck) != 0) or (len(triplesTocheck) != 0):
# print('filtering the permutations based on the tuples and triples..')
# filteredpermutations = self.gs.filterpermutationsaccordingtotuples(permutations, tuplesTocheck, triplesTocheck)
# print('done')
#else:
# print('there are no triples or tuples to check..')
# filteredpermutations = permutations
sentencesToCheck = []
for sentence in permutations:
sentencesToCheck.append(' '.join(sentence))
#print('sentencesToCheck', sentencesToCheck)
#print('classifying the probability for right grammar in the filtered permutations..')
#print(' '.join(sentence))
endsentence = self.sgm.GetBestSentenceFromSentencesAccordingToGrammar(sentencesToCheck, ' '.join(sentence))
if sentence[n] == 'vom':
sentence[n] = 'ein'
jemandornot = 0
for index in wordstodelete[::-1]:
del sentence[index]
if jemandornot == 1:
sentence.append('jemand')
#print(sentence)
#print('get the tuples and triples to check..')
tuplesTocheck, triplesTocheck, quadruplesTocheck = self.gs.GetTuplesinSentence(sentence)
#print('done') #print('done')
#print(tuplesTocheck, triplesTocheck)
#print('the endsentence', endsentence)
endsentences.append(endsentence.split())
if zustandORnot == 0 and vorgangORnot == 0:
#print('it is coming to the else')
endsentences.append(sentence)
grammpiecessentence = self.gs.createTupleofGrammarpieces( sentence, tuplesTocheck, triplesTocheck, quadruplesTocheck)
if len(grammpiecessentence) > 7:
print('A sentence is too long, too many permutations. \n piping wrong grammar..')
endsentences.append(' '.join(grammpiecessentence).split())
else:
#print('the grammpiecessentence', grammpiecessentence)
#print('genrating the permutations')
permutations = self.sgm.GeneratePermutationsOfSentence(grammpiecessentence)
#print('done')
#print(permutations)
#if (len(tuplesTocheck) != 0) or (len(triplesTocheck) != 0):
# print('filtering the permutations based on the tuples and triples..')
# filteredpermutations = self.gs.filterpermutationsaccordingtotuples(permutations, tuplesTocheck, triplesTocheck)
# print('done')
#else:
# print('there are no triples or tuples to check..')
# filteredpermutations = permutations
sentencesToCheck = []
for sentence in permutations:
sentencesToCheck.append(' '.join(sentence))
#print('sentencesToCheck', sentencesToCheck)
#print('classifying the probability for right grammar in the filtered permutations..')
#print(' '.join(sentence))
endsentence = self.sgm.GetBestSentenceFromSentencesAccordingToGrammar(sentencesToCheck, ' '.join(sentence))
#print('done')
#print('the endsentence', endsentence)
endsentences.append(endsentence.split())
if zustandORnot == 0 and vorgangORnot == 0:
#print('it is coming to the else')
endsentences.append(sentence)
except:
print('the sentence ' + str(sentence) + ' caused an error in the module passive2active')
if endsentences[-1] == sentence:
pass
else:
endsentences.append(sentence)

+ 7
- 15
Prototyp/Prototype.ipynb View File

@ -248,18 +248,10 @@
"scrolled": true "scrolled": true
}, },
"outputs": [ "outputs": [
{
"name": "stdout",
"output_type": "stream",
"text": [
"dumping the session\n",
"done\n"
]
},
{ {
"data": { "data": {
"application/vnd.jupyter.widget-view+json": { "application/vnd.jupyter.widget-view+json": {
"model_id": "74fc341e0a474605b1f95c3e4e35d0b2",
"model_id": "3daf3708d77e4098b826524460104e31",
"version_major": 2, "version_major": 2,
"version_minor": 0 "version_minor": 0
}, },
@ -453,7 +445,7 @@
"#display(OutTextFeld)\n", "#display(OutTextFeld)\n",
"items = [SentSeg, SolveShorts, SayYes, PassivErsetzen, GenitiveErsetzen, KonjunktiveErsetzen, FremdWB, Appendixes, Medio] \n", "items = [SentSeg, SolveShorts, SayYes, PassivErsetzen, GenitiveErsetzen, KonjunktiveErsetzen, FremdWB, Appendixes, Medio] \n",
"#display(SentSeg, SolveShorts, SayYes, PassivErsetzen, GenitiveErsetzen, KonjunktiveErsetzen)\n", "#display(SentSeg, SolveShorts, SayYes, PassivErsetzen, GenitiveErsetzen, KonjunktiveErsetzen)\n",
"Grid = widgets.GridBox(items, layout=widgets.Layout(justify_items=\"center\", grid_template_columns=\"repeat(3, 30%)\", grid_gap=\"4.5%\", height=\"150px\"))\n"
"Grid = widgets.GridBox(items, layout=widgets.Layout(justify_items=\"center\", grid_template_columns=\"repeat(3, 30%)\", grid_gap=\"1.5%\", height=\"200px\"))\n"
] ]
}, },
{ {
@ -476,7 +468,7 @@
{ {
"data": { "data": {
"application/vnd.jupyter.widget-view+json": { "application/vnd.jupyter.widget-view+json": {
"model_id": "082cb6fb58aa41cc82d918d2a056258d",
"model_id": "a45cde93f5394cf6b262cc31f14c0d2e",
"version_major": 2, "version_major": 2,
"version_minor": 0 "version_minor": 0
}, },
@ -676,7 +668,7 @@
{ {
"data": { "data": {
"application/vnd.jupyter.widget-view+json": { "application/vnd.jupyter.widget-view+json": {
"model_id": "dad4baed09a5407194ae2daf153e8f43",
"model_id": "5b0d573af12e4e1f9276834123b062a7",
"version_major": 2, "version_major": 2,
"version_minor": 0 "version_minor": 0
}, },
@ -716,7 +708,7 @@
{ {
"data": { "data": {
"application/vnd.jupyter.widget-view+json": { "application/vnd.jupyter.widget-view+json": {
"model_id": "4bff927b0a404ed0b909db2bd766ac65",
"model_id": "be9b40c345ca4105a3810de0872fa144",
"version_major": 2, "version_major": 2,
"version_minor": 0 "version_minor": 0
}, },
@ -838,7 +830,7 @@
{ {
"data": { "data": {
"application/vnd.jupyter.widget-view+json": { "application/vnd.jupyter.widget-view+json": {
"model_id": "b6053b85bdcd4446b010b5fb872dc52c",
"model_id": "01404ad96cc34dd5af96915447731bea",
"version_major": 2, "version_major": 2,
"version_minor": 0 "version_minor": 0
}, },
@ -864,7 +856,7 @@
{ {
"data": { "data": {
"application/vnd.jupyter.widget-view+json": { "application/vnd.jupyter.widget-view+json": {
"model_id": "4d3e6e3a2bcb499697a50a1a1e88a8a4",
"model_id": "39c27a696cbd470fa8f5c58d10460336",
"version_major": 2, "version_major": 2,
"version_minor": 0 "version_minor": 0
}, },

+ 5
- 0
Prototyp/Verbesserungen/Input145.txt View File

@ -0,0 +1,5 @@
so falsch waren die Voraussagen vor der Vergabe des Friedensnobelpreises schon lange nicht mehr .
die meisten Auguren hatten die Klima­kämpfer*innen von Fridays for Future, die im Kampf gegen die Coronapandemie befindliche Weltgesundheitsorganisation oder eine*n aus der in letzter Zeit deutlich gestiegenen Anzahl verfolgter und inhaftierter Journalis*tinnen auf dem Zettel .
an das Welternährungsprogramm (World Food Programme, WFP) der UNO dachte niemand .
dabei gehörte die 1961 gegründete und inzwischen größte humanitäre Organisation der Welt bereits im letzten Jahr beim Auswahlverfahren durch das Nobelpreiskomittee in Oslo zur Schlussrunde der letzten 3 von über 1.000 vorgeschlagenen Kandidat*innen .
und wenn man sich anschaut, welche Organisationen und Personen aus dem UNO-System seit 1945 bereits den Friedensnobelpreis erhalten haben, dann war die Auszeichnung für das WFP schon lange überfällig .

+ 1
- 0
Prototyp/Verbesserungen/Input146.txt View File

@ -0,0 +1 @@
ich ging, obwohl es regnete, in die Schule .

+ 1
- 0
Prototyp/Verbesserungen/Input147.txt View File

@ -0,0 +1 @@
er war, obwohl es nicht so aussah, ziemlich verliebt .

+ 1
- 0
Prototyp/Verbesserungen/Input148.txt View File

@ -0,0 +1 @@
der Mann, der nach Hause ging, rannte wie der Wind .

+ 4
- 0
Prototyp/Verbesserungen/Input149.txt View File

@ -0,0 +1,4 @@
begleitet von Warnstreiks in mehreren Bündesländern geht der Tarifkonflikt für die rund 2,3 Millionen Beschäftigten im öffentlichen Dienst von Bund und Kommunen in die entscheidende Phase .
von diesem Donnerstag an verhandeln Arbeitgeber und Gewerkschaften wieder im Potsdamer Kongresshotel .
es könnte die letzte Verhandlungsrunde sein .
zwar zeichnet sich bislang noch keine Annäherung ab, aber angesichts der Coronakrise ist der Einigungsdruck auf beiden Seiten enorm groß .

+ 3
- 0
Prototyp/Verbesserungen/Input150.txt View File

@ -0,0 +1,3 @@
die Ausgangslage: Die Dienstleistungsgewerkschaft Verdi und der Deutsche Beamtenbund (dbb) fordern eine Anhebung der Einkommen um 4,8 Prozent, mindestens aber 150 Euro pro Monat .
der Bund und die Vereinigung der kommunalen Arbeitgeberverbände (VKA) bieten ein Lohnplus von 3,5 Prozent an, mindestens jedoch 30 Euro .
die Differenz zwischen Forderung und Angebot klingt nicht groß, sie ist es aber .

+ 7
- 0
Prototyp/Verbesserungen/Input151.txt View File

@ -0,0 +1,7 @@
Fische oder Pisces (lateinisch piscis „Fisch“) sind aquatisch lebende Wirbeltiere mit Kiemen .
im engeren Sinne wird der Begriff Fische eingeschränkt auf aquatisch lebende Tiere mit Kiefer verwendet .
im weiteren Sinne umfasst er auch Kieferlose, die unter den rezenten Arten noch mit den Rundmäulern vertreten sind .
in beiden Fällen fehlt wenigstens ein Nachfahre der Fische (nämlich die Landwirbeltiere) in ihrer Abstammungsgemeinschaft .
daher bilden die Fische keine geschlossene Abstammungsgemeinschaft in der biologischen Systematik, sondern ein paraphyletisches Taxon .
sie sind lediglich eine unvollständige Abstammungsgemeinschaft, bestehend aus einem jüngsten Vorfahren und dem aquatisch lebenden Teil seiner Nachfahren .
die Lehre von der Biologie der Fische ist die Ichthyologie (altgriechisch ἰχθύς ichthýs „Fisch“) oder Fischkunde .

+ 19
- 0
Prototyp/Verbesserungen/Output145.txt View File

@ -0,0 +1,19 @@
so falsch waren die Voraussagen vor der Vergabe von dem Friedensnobelpreis schon lange geringerer .
die meisten Auguren hatten die Klima­kaempfer*innen von Fridays for Future .
die im Kampf gegen die Coronapandemie befindliche Welt·gesundheits·organisation oder eine*n aus der in letzter Zeit deutlich gestiegenen Anzahl verfolgter und inhaftierter Journalis*tinnen auf dem Zettel .
die Welt·gesundheits·organisation ist eine Behoerde .
das kurze Wort dafuer ist WHO .
mit Zeit kann man Sachen messen .
man kann messen wie lange etwas dauert .
und man kann Sachen mit·einander vergleichen .
zum Beispiel wie lange ein Jahr geht .
oder wie lange eine Stunde geht .
an das Welternaehrungsprogramm (World Food Programme .
Wfp) der UNO dachte niemand .
die Vereinte Nationen sind ein Zusammenschluss von vielen Laendern .
insgesamt sind es 193 Laender .
dabei gehoerte die 1961 gegruendete und inzwischen groesste humanitaere Organisation der Welt bereits im letzten Jahr beim Auswahlverfahren durch das Nobelpreiskomittee in Oslo zur Schlussrunde der letzten 3 von ueber 1.000 vorgeschlagenen Kandidat*innen .
eine Organisation ist eine Gruppe von Leuten .
und wenn man sich anschaut .
welche Organisationen und Personen aus dem UNO-System seit 1945 bereits den Friedensnobelpreis erhalten haben .
dann war die Auszeichnung fuer das WFP schon lange ueberfaellig .

+ 3
- 0
Prototyp/Verbesserungen/Output146.txt View File

@ -0,0 +1,3 @@
ich ging .
obwohl es regnete .
in die Schule .

+ 3
- 0
Prototyp/Verbesserungen/Output147.txt View File

@ -0,0 +1,3 @@
er war .
obwohl es etwas anders aussah .
ziemlich verliebt .

+ 7
- 0
Prototyp/Verbesserungen/Output148.txt View File

@ -0,0 +1,7 @@
der Mann rannte wie der Wind .
Wind ist Luft, die sich bewegt .
man kann ihn nicht sehen .
aber man kann ihn erkennen .
zum Beispiel: Wenn Äste und Blaetter sich bewegen, dann weht der Wind .
oder am Strand, wenn sich der Sand bewegt .
der nach Hause ging .

+ 6
- 0
Prototyp/Verbesserungen/Output149.txt View File

@ -0,0 +1,6 @@
begleitet von Warnstreiks in mehreren Buendeslaendern geht der Tarifkonflikt fuer die rund 2,3 Millionen Beschaeftigten im oeffentlichen Dienst von Bund und Kommunen in die entscheidende Phase .
von diesem Donnerstag an verhandeln Arbeitgeber und Gewerkschaften wieder im Potsdamer Kongresshotel .
der Arbeitgeber ist der Chef einer Firma .
es koennte die letzte Verhandlungsrunde sein .
zwar zeichnet sich bislang noch keine Annaeherung ab .
aber angesichts der Coronakrise ist der Einigungsdruck auf beiden Seiten enorm gross .

+ 15
- 0
Prototyp/Verbesserungen/Output150.txt View File

@ -0,0 +1,15 @@
die Ausgangslage: Die Dienstleistungsgewerkschaft Verdi und der Deutsche Beamtenbund (dbb) fordern eine Anhebung der Einkommen um 4,8 Prozent .
Fordern heisst :
ich will etwas bekommen .
ich stelle eine Forderung .
mindestens aber 150 Euro pro Monat .
der Euro ist eine Waehrung .
Waehrung ist Geld das man in einem Land benutzt um zu bezahlen .
es gibt Muenzen und Geldscheine .
der Bund und die Vereinigung der kommunalen Arbeitgeberverbaende (VKA) bieten ein Lohnplus von 3,5 Prozent an .
mindestens jedoch 30 Euro .
die Differenz zwischen Forderung und Angebot klingt nicht gross .
Forderung heisst etwas fordern .
Fordern heisst :
ich will etwas bekommen .
sie ist es aber .

+ 16
- 0
Prototyp/Verbesserungen/Output151.txt View File

@ -0,0 +1,16 @@
Fische oder Pisces (lateinisch piscis „Fisch“) sind aquatisch lebende Wirbeltiere mit Kiemen .
ein Fisch ist ein Tier .
er lebt im Wasser .
im engeren Sinne wird der Begriff Fische eingeschraenkt auf aquatisch lebende Tiere mit Kiefer verwendet .
im weiteren Sinne umfasst er auch Kieferlose .
Jemand vertritt mit den Rundmaeulern noch unter den rezenten Arten die .
in beiden Faellen fehlt wenigstens ein Nachfahre der Fische (naemlich die Landwirbeltiere) in ihrer Abstammungsgemeinschaft .
daher bilden die Fische eine offene Abstammungsgemeinschaft in der biologischen Systematik .
sondern ein paraphyletisches Taxon .
sie sind lediglich eine unvollstaendige Abstammungsgemeinschaft .
Bestehend aus einem juengsten Vorfahren und dem aquatisch lebenden Teil seiner Nachfahren .
die Lehre der Fische ist die Ichthyologie (altgriechisch ἰχθύς ichthýs „Fisch“) oder Fischkunde .
die Lehre ist von der Biologie .
Biologie untersucht Leben und Lebe·wesen .
zum Beispiel Tiere, Menschen und Pflanzen .
und Biologie sammelt Wissen ueber Leben und Lebe·wesen .

+ 20
- 0
Prototyp/Verbesserungen/Verbesserungen145.txt View File

@ -0,0 +1,20 @@
so falsch waren die Voraussagen vor der Vergabe von dem Friedensnobelpreis schon lange geringerer .
die meisten Auguren hatten die Klima­kaempfer*innen von Fridays for Future auf dem Zettel .
sie hatten die im Kampf gegen die Coronapandemie befindliche Welt·gesundheits·organisation auf dem Zettel .
oder sie hatten eine*n aus der in letzter Zeit deutlich gestiegenen Anzahl verfolgter und inhaftierter Journalis*tinnen auf dem Zettel .
die Welt·gesundheits·organisation ist eine Behoerde .
das kurze Wort dafuer ist WHO .
mit Zeit kann man Sachen messen .
man kann messen wie lange etwas dauert .
und man kann Sachen mit·einander vergleichen .
zum Beispiel wie lange ein Jahr geht .
oder wie lange eine Stunde geht .
an das Welternaehrungsprogramm (World Food Programme .
Wfp) der UNO dachte niemand .
die Vereinte Nationen sind ein Zusammenschluss von vielen Laendern .
insgesamt sind es 193 Laender .
dabei gehoerte die 1961 gegruendete und inzwischen groesste humanitaere Organisation der Welt bereits im letzten Jahr beim Auswahlverfahren durch das Nobelpreiskomittee in Oslo zur Schlussrunde der letzten 3 von ueber 1.000 vorgeschlagenen Kandidat*innen .
eine Organisation ist eine Gruppe von Leuten .
und wenn man sich anschaut .
welche Organisationen und Personen aus dem UNO-System seit 1945 bereits den Friedensnobelpreis erhalten haben .
dann war die Auszeichnung fuer das WFP schon lange ueberfaellig .

+ 2
- 0
Prototyp/Verbesserungen/Verbesserungen146.txt View File

@ -0,0 +1,2 @@
ich ging in die Schule .
obwohl es regnete .

+ 2
- 0
Prototyp/Verbesserungen/Verbesserungen147.txt View File

@ -0,0 +1,2 @@
er war ziemlich verliebt .
obwohl es anders aussah .

+ 7
- 0
Prototyp/Verbesserungen/Verbesserungen148.txt View File

@ -0,0 +1,7 @@
der Mann rannte wie der Wind .
Wind ist Luft, die sich bewegt .
man kann ihn nicht sehen .
aber man kann ihn erkennen .
zum Beispiel: Wenn Äste und Blaetter sich bewegen, dann weht der Wind .
oder am Strand, wenn sich der Sand bewegt .
dieser ging nach Hause .

+ 8
- 0
Prototyp/Verbesserungen/Verbesserungen149.txt View File

@ -0,0 +1,8 @@
der Tarifkonflikt fuer die rund 2,3 Millionen Beschaeftigten im oeffentlichen Dienst von Bund und Kommunen geht in die entscheidende Phase .
dabei wird er begleitet von Warnstreiks in mehreren Buendeslaendern .
von diesem Donnerstag an verhandeln Arbeitgeber und Gewerkschaften wieder im Potsdamer Kongresshotel .
der Arbeitgeber ist der Chef einer Firma .
es koennte die letzte Verhandlungsrunde sein .
zwar zeichnet sich bislang noch keine Annaeherung ab .
aber der Einigungsdruck auf beiden Seiten ist enorm gross .
weil gerade die Coronakrise ist .

+ 12
- 0
Prototyp/Verbesserungen/Verbesserungen150.txt View File

@ -0,0 +1,12 @@
die Ausgangslage: Die Dienstleistungsgewerkschaft Verdi und der Deutsche Beamtenbund (dbb) fordern eine Anhebung der Einkommen um 4,8 Prozent .
Fordern heisst :
ich will etwas bekommen .
ich stelle eine Forderung .
mindestens aber 150 Euro pro Monat .
der Euro ist eine Waehrung .
Waehrung ist Geld das man in einem Land benutzt um zu bezahlen .
es gibt Muenzen und Geldscheine .
der Bund und die Vereinigung der kommunalen Arbeitgeberverbaende (VKA) bieten ein Lohnplus von 3,5 Prozent an .
mindestens jedoch 30 Euro .
die Differenz zwischen Forderung und Angebot klingt nicht gross .
sie ist es aber .

+ 16
- 0
Prototyp/Verbesserungen/Verbesserungen151.txt View File

@ -0,0 +1,16 @@
Fische oder Pisces (lateinisch piscis „Fisch“) sind aquatisch lebende Wirbeltiere mit Kiemen .
ein Fisch ist ein Tier .
er lebt im Wasser .
im engeren Sinne wird der Begriff Fische eingeschraenkt auf aquatisch lebende Tiere mit Kiefer verwendet .
im weiteren Sinne umfasst er auch Kieferlose .
Jemand vertritt die mit den Rundmaeulern noch unter den rezenten Arten .
in beiden Faellen fehlt wenigstens ein Nachfahre der Fische (naemlich die Landwirbeltiere) in ihrer Abstammungsgemeinschaft .
daher bilden die Fische eine offene Abstammungsgemeinschaft in der biologischen Systematik .
nämlich ein paraphyletisches Taxon .
sie sind lediglich eine unvollstaendige Abstammungsgemeinschaft .
Bestehend aus einem juengsten Vorfahren und dem aquatisch lebenden Teil seiner Nachfahren .
die Lehre der Fische ist die Ichthyologie (altgriechisch ἰχθύς ichthýs „Fisch“) oder Fischkunde .
die Lehre ist von der Biologie .
Biologie untersucht Leben und Lebe·wesen .
zum Beispiel Tiere, Menschen und Pflanzen .
und Biologie sammelt Wissen ueber Leben und Lebe·wesen .

+ 1
- 1
Prototyp/Verbesserungen/indexDerVerbesserungen.txt View File

@ -1 +1 @@
144
151

BIN
Prototyp/__pycache__/Passiv2Aktiv.cpython-35.pyc View File


BIN
Prototyp/__pycache__/SolveShorts.cpython-35.pyc View File


Loading…
Cancel
Save